Jak Intel może wykorzystać sztuczną inteligencję do rozwiązania ogromnego problemu w grach komputerowych

click fraud protection

Intel robi duży krok w przyszłość grafiki. Firma przedstawia siedem nowych artykułów naukowych na Siggraph 2023, coroczną konferencję graficzną, z których jedna próbuje zająć się Ograniczenia pamięci VRAM w nowoczesnych procesorach graficznych z renderowaniem neuronowym.

Papier ma na celu umożliwienie śledzenia ścieżki w czasie rzeczywistym za pomocą renderowania neuronowego. Nie, Intel nie wprowadza rywala DLSS 3, ale chce wykorzystać sztuczną inteligencję do renderowania złożonych scen. Intel twierdzi, że „ograniczona ilość wbudowanej pamięci [w procesorach graficznych] może ograniczać praktyczne renderowanie złożonych scen”. Intel wprowadza neuronowy poziom szczegółowości reprezentacji obiektów i mówi, że może osiągnąć współczynniki kompresji od 70% do 95% w porównaniu z „klasycznymi reprezentacjami źródłowymi, jednocześnie poprawiając jakość w stosunku do Poprzednia praca."

Ellie trzyma broń w The Last of Us Part I.

Nie różni się niczym od Kompresja tekstur neuronowych firmy Nvidia, którą przedstawiła również w dokumencie przesłanym do Siggraph. Jednak artykuł Intela dotyczy złożonych obiektów 3D, takich jak roślinność i włosy. Jest stosowana jako technika poziomu szczegółowości (LoD) dla obiektów, pozwalając im wyglądać bardziej realistycznie z większej odległości. Jak widzieliśmy z gier takich jak

Redfall Ostatnio, ograniczenia pamięci VRAM mogą powodować, że nawet bliskie obiekty będą miały zabłocone tekstury i mało szczegółów, gdy je mijasz.

Polecane filmy

Oprócz tej techniki Intel wprowadza również wydajny algorytm śledzenia ścieżki mówi, że w przyszłości umożliwi kompleksowe śledzenie ścieżki na procesorach graficznych średniej klasy, a nawet zintegrowane grafika.

Śledzenie ścieżki jest zasadniczo trudnym sposobem śledzenie promienii widzieliśmy już, jak jest używany z doskonałym skutkiem w grach takich jak Cyberpunka 2077 Portal RTX. Choć śledzenie ścieżki jest imponujące, jest niezwykle wymagające. Potrzebujesz flagowego procesora graficznego, takiego jak RTX4080 Lub RTX4090 nawet uruchamiać te gry w wyższych rozdzielczościach, a to trudne ze strony Nvidii Generowanie ramek DLSS włączony.

dokument firmy Intel wprowadza sposób na usprawnienie tego procesu. Robi to, wprowadzając nowy algorytm, który według Intela jest „prostszy niż najnowocześniejszy i zapewnia większą wydajność”. Firma opiera się na funkcji matematycznej GGX, która według Intela jest „używana w każdym filmie CGI i grze wideo”. The Algorytm redukuje ten matematyczny rozkład do półkulistego zwierciadła, które jest „niezwykle proste do symulacji na a komputer."

Zrzut ekranu pełnego ray tracingu w grze Cyberpunk 2077.
Nvidia / CD Projekt Red

Ideą GGX jest to, że powierzchnie składają się z mikrościanek, które odbijają i przepuszczają światło w różnych kierunkach. Jest to kosztowne do obliczenia, więc algorytm Intela zasadniczo redukuje rozkład GGX do prostego do obliczenia nachylenia w oparciu o kąt kamery, umożliwiając renderowanie w czasie rzeczywistym.

W oparciu o wewnętrzne testy porównawcze firmy Intel prowadzi to do 7,5% przyspieszenia renderowania scen ze śledzeniem ścieżki. To może wydawać się niewielkim uderzeniem, ale Intel wydaje się przekonany, że bardziej wydajne algorytmy mogą zrobić różnicę. W post na blogu, firma twierdzi, że zademonstruje, w jaki sposób śledzenie ścieżki w czasie rzeczywistym może być „praktyczne nawet na średniej klasy i zintegrowanych procesorach graficznych w przyszłości” na Siggraph.

Jeśli chodzi o to, kiedy nadejdzie ta przyszłość, trudno powiedzieć. Należy pamiętać, że w tej chwili jest to artykuł badawczy, więc może minąć trochę czasu, zanim zobaczymy ten algorytm szeroko stosowany w grach. Z pewnością wyświadczyłoby to Intelowi przysługę. Chociaż firma Karty graficzne Arc stały się doskonałe w ciągu ostatnich kilku miesięcy Intel nadal koncentrował się na procesorach graficznych średniej klasy i zintegrowanej grafice, w przypadku których śledzenie ścieżki nie jest obecnie możliwe.

Nie spodziewamy się jednak, że wkrótce zobaczysz te techniki w akcji. Dobrą wiadomością jest to, że obserwujemy nowe techniki poprawiające jakość wizualną i wydajność renderowania w czasie rzeczywistym, co oznacza, że ​​techniki te powinny w końcu pojawić się w grach.

Zalecenia redaktorów

  • Jak testujemy komponenty i sprzęt komputerowy
  • Najlepsze kompilacje komputerów PC: budżet, gry, edycja wideo i nie tylko
  • Zaskakujący powód, dla którego Twój potężny komputer wciąż nie radzi sobie z najnowszymi grami
  • Oto jak Intel podwoił wydajność procesorów graficznych Arc dzięki prostej aktualizacji sterownika
  • Sztuczna inteligencja nadchodzi dla twoich gier komputerowych, ale powinieneś być podekscytowany, a nie zmartwiony

Ulepsz swój styl życiaTrendy cyfrowe pomagają czytelnikom śledzić szybko zmieniający się świat technologii dzięki najnowszym wiadomościom, zabawnym recenzjom produktów, wnikliwym artykułom redakcyjnym i jedynym w swoim rodzaju zapowiedziom.