<html><head><meta http-equiv="Content-Type" content="text/html; charset=us-ascii"></head><body style="word-wrap: break-word; -webkit-nbsp-mode: space; line-break: after-white-space;" class="">I just remembered the blog from Sean Costello from ValhallaDSP, for example:<div class=""><br class=""></div><div class=""><a href="https://valhalladsp.com/2017/06/01/minimalism-algorithm-design/" class="">https://valhalladsp.com/2017/06/01/minimalism-algorithm-design/</a></div><div class=""><a href="https://valhalladsp.com/2009/07/30/modulation-in-reverbs-reality-and-unreality/" class="">https://valhalladsp.com/2009/07/30/modulation-in-reverbs-reality-and-unreality/</a></div><div class=""><br class=""></div><div class="">Lots of interesting articles there: <a href="https://valhalladsp.com/category/tech-talk/" class="">https://valhalladsp.com/category/tech-talk/</a></div><div class=""><br class=""></div><div class="">Ben</div><div class=""><br class=""><div><br class=""><blockquote type="cite" class=""><div class="">On 22 Mar 2021, at 18:09, Richie Burnett <<a href="mailto:rburnett@richieburnett.co.uk" class="">rburnett@richieburnett.co.uk</a>> wrote:</div><br class="Apple-interchange-newline"><div class=""><div class=""><blockquote type="cite" class="">Just speculating here, but I wonder if the mono-reverb/voice algorithm is quite unnatural...<br class=""></blockquote><br class="">That is one of the criticisms of convolution reverb, that it puts all of the instruments in the reverb's send feed through the same "single-point to single-point" transfer function (or "single-point to two-point" in the case of stereo reverb.)  Which is not what happens in reality because every source is in a subtly different location.<br class=""><br class="">I remember reading something that someone involved in early reverb development had written about this.  Can't remember who it was now, but likely someone from Lexicon.  They said that they got around this static sound by the introduction of modulations like "spin" and "wander" so that successive sounds would get subject to subtly different transfer functions instead of the same rigid transfer function.  This isn't so much putting each instrument in it's own unique fixed place in the room, as much as moving the single source around in the room with time.  There were also comments about the fact that humans rarely keep their heads absolutely fixed in the same place whilst listening to music, and musicians operating real acoustic instruments move significantly in order to play.  So clearly a single-point to single-point transfer function falls short of modelling reality.<br class=""><br class="">There were also comments about air currents in large rooms driven by thermal gradients, etc, which I found less convincing.  The fact remains that modulating a bunch of the delay lines within the reverb algorithm was very effective at breaking up some of the metallic resonant modes that plagued early reverbs that had barely enough of the expensive delay memory.  That is probably the over-riding reason why modulation was introduced:  To disturb the metallic ringing in the reverb tail, ...and the fact that it sounds fantastically dreamy and musical when ramped up!<br class=""><br class="">-Richie, <br class=""><br class="">-- <br class="">This email has been checked for viruses by AVG.<br class=""><a href="https://www.avg.com" class="">https://www.avg.com</a><br class=""><br class="">_______________________________________________<br class="">Synth-diy mailing list<br class="">Synth-diy@synth-diy.org<br class="">http://synth-diy.org/mailman/listinfo/synth-diy<br class="">Selling or trading? Use marketplace@synth-diy.org<br class=""></div></div></blockquote></div><br class=""></div></body></html>