Compusemble протестировал технологию RTX Neural Texture Compression (NTC) от Nvidia в двух режимах: «NTC, транскодированный в BCn» и «Inference on Sample».
Первый режим транскодирует текстуры в BCn при загрузке, тогда как второй только распаковывает отдельные текселы, необходимые для рендеринга определенного вида, что еще больше уменьшает размер памяти текстур.
В разрешении 1440p с включенным масштабированием DLSS режим «NTC transcoded to BCn» уменьшил объем памяти текстур тестового приложения на 64% — с 272 МБ до 98 МБ. Однако режим «NTC inference on sample» значительно уменьшил размер текстуры — всего до 11,37 МБ. Это на 95,8% меньше используемой памяти по сравнению с ненейронным сжатием и на 88% меньше по сравнению с предыдущим режимом нейронного сжатия.
Тестирование Compusemble показали, что производительность немного падает при включении RTX Neural Texture Compression. Однако бенчмаркер запускал это бета-ПО на предыдущем поколении RTX 4090, а не на текущем поколении RTX 5090, поэтому вполне возможно, что это снижение производительности может уменьшиться с новой архитектурой.
В режиме «NTC transcoded to BCn» незначительное снижение среднего FPS по сравнению с выключенным NTC, хотя 1% минимумов FPS были заметно лучше, чем обычное сжатие текстур с выключенным NTC. Режим «NTC inference on sample» понес наибольший урон, перейдя с середины диапазона 1600 FPS до середины диапазона 1500 FPS. 1% минимумов значительно упали до диапазона 840 FPS.
Сокращение объема памяти такое же при 1440p с TAA-сглаживанием вместо DLSS-масштабирования, но поведение производительности GPU отличается. Все три режима работали значительно быстрее, чем DLSS, работая на частоте почти 2000 FPS. 1% минимумов в режиме «NTC inference on sample» работали в