→_→
魔神至尊
★★★★★★★★★★
查看详细资料
TOP
原帖由 @jun4rui 于 2018-9-18 08:13 发表 你落伍了,NVIDIA的dlss技术就是把1080拉成4k 60fps的,了解一下
原帖由 @jjx01 于 2018-9-18 08:36 发表 认为从1080到4k把锯齿边缘重新算一下就和音频里重采样类似,从一开始就是错的 频谱图摆在这里: 1024542 从低采样到高采样,增加的是人耳听不到的高音部分,人耳能听到的部分完全相同 抗锯齿、优化画面这种图形技术在音频类比的是“音频修复”,用自动算法去除源录音里的爆音、嘶嘶音、自动降噪等等,跟音频重采样率播放关系都没有 降噪、去爆音时高位宽有效果,可以降低计算时额外产生的噪音音量,高采样率无用,该什么频率的声音还是什么频率的声音
原帖由 @jun4rui 于 2018-9-18 11:15 发表 可能是,不过谁先弄明白下,索尼这个是怎么用深度学习升至176.4kHz的?
原帖由 @jun4rui 于 2018-9-18 11:24 发表 但是深度学习现在很多实际上的例子都表明,确实可以实现某种程度上的”无中生有“
原帖由 @甲级战犯他祖宗 于 2018-9-18 11:30 发表 我觉得这和插帧完全不是一回事。插帧是发生在时域的,而取样影响的是频域 插帧是两张画面中间真的无中生有给插了第三张画面,这个4倍频再采样出来的结果是不会无中生有的。别说4倍,就算是四百倍再采样,22khz以上的频域信息没有不能变成有
原帖由 @甲级战犯他祖宗 于 2018-9-18 11:39 发表 按我的理解整个过程是这样的: 44khz采样获得的数字信号 > 数模转换 > 模拟信号 > 176khz再采样获得数字信号 > 再数模转换 > 模拟音频 如果以上理解是对的,那我只能说:1)176khz再采样多出来的信息只能来自于第一次数模转换带来的杂质 2)两次数模转换玄纯属脱裤子放屁倒也罢了学爱好者能忍?
原帖由 @allensakura 于 2018-9-18 11:37 发表 24bit采样也能吹,都2018了那家dac不是内部32bit采样?
原帖由 @甲级战犯他祖宗 于 2018-9-18 11:49 发表 这个真喷了。以我羸弱的信号处理知识,采样(sampling)永远是对模拟信号(时域连续)而言的。从来没听说过可以对数字信号(时域离散)进行采样。骚尼真是突破我的认知
原帖由 @mushroom 于 2018-9-18 12:08 发表 对数字信号滤什么波?采什么样?
原帖由 @mushroom 于 2018-9-18 12:34 发表 ... Im sorry,完全看不懂 所谓数字信号就是16bit的数列对吧。数列的每个单元都是一个16bit的数字对吧。 这个数列的产生是不是从包含了高于22khz的模拟信号上取得的已经没有办法得知了对吧。 我们怎么能够从一个单纯的16bit的数字上找到来源于高于22khz的部分并把它过滤掉呢?
原帖由 @mushroom 于 2018-9-18 12:54 发表 1 “傅立叶变换就是把离散的时域信号转换成不同频率的正弦波的组合” 就是 数字信号转乘模拟信号对吧 接下来的处理都是在模拟信号上进行的对吧。 2 44.1khz的采样率的数字信号转成模拟信号后,怎么会包含高于22khz的正弦波的音频信号的? 如果音源里本身包含高频信号,没有在采样前被过滤的话,那么数字信号里面就会包括杂音,但是采样率只有44.1khz,在转回模拟信号是就会出现失真。这已经是没法处理的了。 要能正确的解析出这个高频信号,意味着采样率必须高于音频信号频率的2倍。比如说40khz的音频只有在被大于80khz的采样率采样后,才能被正确的解析出来。
原帖由 @jjx01 于 2018-9-18 13:11 发表 因为乐器、人声都到不了这个频率,所以叫它们“杂讯” 傅立叶变换展开之后的项数是无穷的,高过人耳频率的项直接去掉,还原之后听起来毫无区别 不过示波器里可以看到区别,人耳永远到不了仪器能“听”的频率
原帖由 @mushroom 于 2018-9-18 13:33 发表 okok,大概明白了。 你说的是把数列转换为正弦波的算式,然后在这个算式上重新采样。一切都只是计算,没有经过实际的DAC。
原帖由 @mushroom 于 2018-9-18 13:50 发表 what 这不是应该转成正弦波以后再做的事情么 44.1k/s的数据已经可以完全重构22k以内的正弦波了,为啥要插?