Nvidia GeForce RTX40 Serisi - Hopper/Ada Lovelace (2022-2023)
3 3

Bu konuda 941 mesaj var

Piyasada 450-500W GPU'lar var, notebooklarda ayni mimari 60-80W calisabiliyor, sikinti yok. Bu nesil de ayni sey olur.

Apple fan sesi olmadan da oyun calistirabiliyor, o ayri.

rammstein beğendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Tam olarak aynı şey değil. Mevcut nesilde 3090 gibi bir şey sundu Nvidia ve 350w tdp ile yaptı bunu. 450w dediğimiz ise tamamen zorlama ve hatta çıkışı çok sorunlu olan 3090ti oldu. Nvidia'nın bu sefer açılışı 450w bir gpu ile yapması bekleniyor. Hatta daha üstü bile olabilir deniyor. Çünkü ilk tanıtılan Hopper gpusu 700w olarak açıklandı. Gerçi Ada Lovelace mimarisi ile oyuncu tarafı daha insani sınırlar içinde de gelebilir, bilemiyoruz ama genelde gördüğümüz, Tesla tarafında enerji verimliliği ne ise GeForce tarafında da benzer olduğudur. O yüzden Ampere'de 400w tdp ile A100'ü gördükten sonra 350w ile gelen 3090'dan sonra, 700w ile gelen H100 ardından 450-600w civarı bir 4090 gelmesi çok da garip görünmüyor açıkçası. Güç tüketiminin artacağı konusunda hemen hemen tüm kaynaklar hem fikir. Hatta geçen ay "Nvidia 900w'lık gpuları test ediyor" gibisinden haber gelmişti. O kısım şüpheli ama 500w civarı gpular görürsek de çok şaşırmayalım.

Notebook tarafında ise 175w civarı üst limit olarak kalmaya devam ediyor. Hadi biraz daha zorladılar ve 200w'a kadar geldiler diyelim. Saat hızı düşürülmüş yüksek seviye gpular kullanılsın, yine masaüstündeki 300w'lık gpularla zor yarışacaktır. Durum böyle olunca da masaüstü ile notebook gpuları arasındaki fark da açılıyor tabi. Şuan masaüstü 3070'i tam olarak karşılayamıyor en hızlı notebook gpusu. Kaldı ki bu revize edilmiş güncel model (3080ti laptop gpu) için böyle. Geçen yıl 3060ti seviyesini bile tam olarak tutturamamıştı diye hatırlıyorum. Yeni nesilde daha da geriye gidilirse, artık iyice eskiye dönecek gibiyiz demektir. İsmi ne kadar yüksek olursa olsun, notebook tarafındaki modeller masaüstündeki orta seviyeyi bile tutturmakta zorlanacaktır.

rammstein beğendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Ayni wattage’dan daha yuksek performans cikarabildikleri surece masaustunde de, laptopta da performans artmaya devam eder. Masaustunde watt’i da arttirabildikleri icin performans daha cok artar. Dedigin dogru olur, aradaki fark acilir. Ama bunun sebebi masaustunde cilgin performans gormemiz olur.

Fark acilmasa daha kotu, “masaustunde o kadar watt cekiyor, yine de eski neslin cok ustune cikamiyor” durumu yasanir.

Oyle dusununce…

Masaustunu tutturmasi gerekmiyor. Rekabetin notebook’ta verebildigini vermesi gerekiyor.

Notebook’ta 100 kusur watt ile limitliler diye masaustunde performans limitlemeleri gerekmiyor.

Apple enerji verimliligine ulassalar super olur tabi. Notebook’lar sessiz olur. Ama benim bildigim nvidia masaustunde ona da mumkun olan en yuksek wattage’i verip ucuna kadar iter, yine masaustu ile laptop arasi acilir.

Sunu yapabilirler: bu nesilde masaustu 8nm, server donanimi 7nm’di. Laptop donanimini da oyle yapsalar ilginc olur. Masaustu 5nm, server ve notebook’lar 4nm mesela. Ama bunun hayal olarak kalmasi olasi.

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Ayni wattage’dan daha yuksek performans cikarabildikleri surece masaustunde de, laptopta da performans artmaya devam eder. Masaustunde watt’i da arttirabildikleri icin performans daha cok artar. Dedigin dogru olur, aradaki fark acilir. Ama bunun sebebi masaustunde cilgin performans gormemiz olur.

Fark acilmasa daha kotu, “masaustunde o kadar watt cekiyor, yine de eski neslin cok ustune cikamiyor” durumu yasanir.

Oyle dusununce…

Masaustunu tutturmasi gerekmiyor. Rekabetin notebook’ta verebildigini vermesi gerekiyor.

Notebook’ta 100 kusur watt ile limitliler diye masaustunde performans limitlemeleri gerekmiyor.

Apple enerji verimliligine ulassalar super olur tabi. Notebook’lar sessiz olur. Ama benim bildigim nvidia masaustunde ona da mumkun olan en yuksek wattage’i verip ucuna kadar iter, yine masaustu ile laptop arasi acilir.

Sunu yapabilirler: bu nesilde masaustu 8nm, server donanimi 7nm’di. Laptop donanimini da oyle yapsalar ilginc olur. Masaustu 5nm, server ve notebook’lar 4nm mesela. Ama bunun hayal olarak kalmasi olasi.

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Bu güç tüketimlerinin böyle uçmalarının en önemli sebeplerinden biri de artık gpu ve cpu'ların fabrikadan overclock'lu olarak gelmeleri.

Eskiden cpu'lar gpu'lar güç/performans olarak sweet spot'ları neredeyse o hıza sabitlenir öyle satılırlardı ve sweet spot'taki güç tüketimleri üzerinde yazardı. Siz manuel overclock yapınca bu değerin çok çok üstünü görürdünüz.

O devir artık değişti, aletler artık kutudan çıkardığınzda soğutma izin verdiği sürece çıkabildiği en yüksek hıza çıkıyor, dolayısıyla o haldeki tüketimi ile lanse ediliyor.

Frekanslar arttıkça performans oranla güç tüketimi deli gibi artıyor. 400-450 watt güç harcayan masaüstü yongaların mobil versiyonları çok daha düşük güç tüketimleri ile benzer performans verebilir.

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş
5 hours ago, Whooosh said:

Bu güç tüketimlerinin böyle uçmalarının en önemli sebeplerinden biri de artık gpu ve cpu'ların fabrikadan overclock'lu olarak gelmeleri.

Eskiden cpu'lar gpu'lar güç/performans olarak sweet spot'ları neredeyse o hıza sabitlenir öyle satılırlardı ve sweet spot'taki güç tüketimleri üzerinde yazardı. Siz manuel overclock yapınca bu değerin çok çok üstünü görürdünüz.

O devir artık değişti, aletler artık kutudan çıkardığınzda soğutma izin verdiği sürece çıkabildiği en yüksek hıza çıkıyor, dolayısıyla o haldeki tüketimi ile lanse ediliyor.

Frekanslar arttıkça performans oranla güç tüketimi deli gibi artıyor. 400-450 watt güç harcayan masaüstü yongaların mobil versiyonları çok daha düşük güç tüketimleri ile benzer performans verebilir.

Aynen

 

On 5/30/2022 at 2:34 AM, epi said:

1.6-2x performans isteruk.

 

5nm olacak. Gucu kartin kaldiracagi kadar serbest birakip rekabette iyi konumlanacaklar. Ama 300W'a da limitleseniz kart gayet guzel kart olacak.

3090Ti'lar mesela 450W, marka bazi kartlar 550W, ama 300W'a limitleyip calistirdiniz diye uzmuyor, hayvan gibi performans veriyor (3080Ti seviyesi ama daha az guc cekerek)

Ayni mimariyi laptop'a takip 80-130W calistirinca performans cakilmiyor.

 

Rekabette her fps'i sayip "ulan arada 2 fps fark var" demek yerine "off, %7 fark atmis" diyecegimiz icin dibine kadar zorluyorlar. Hayir onlar zorlamiyorken biz sogutmasini degistiriyorduk, voltajini yukseltiyorduk, biz zorluyorduk. Simdi dogrudan oyle geliyor, duvardan kartin cekebilecegi kadar cekiyor, driver'dan yanmayacagi kadar serbest birakiliyor. O 2 fps'yi de aliyoruz, 28 degil 30 fps oluyor. Neredeyse yari miktarda guc verip calistirdiginda az-cok ayni performansi veriyor ama "bilmem kimin karti 20W daha cok basiyormus abi" diye gidip o karti aliyoruz.

Cok guc cekmesinden mimarinin enerji verimliliginin dusuk oldugu sonucuna varmayalim hemen.

 

Yalniz notebookta duvara baglamayip pilden calistirdin mi performans Apple'a gore kotu. O bu nesilde de devam eder. Ama olsun o kadar, duvara bagladiginda yine agzina agzina vuruyor.

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Bir ay ertelendi diyorlar. Herhalde Intel/AMD ne zaman piyasaya gelirse o zaman 4090'i yapistiracaklar, o yuzden bu sefer ust modelle basliyorlar. O cepheden gelen habere gore gerekirse yine ertelenir. Ama tedarik bahane edilmis.

 

Tekel/Monopoly fiyatlari ucuk olur.

Iki tane oldugunda duopoly, yine biraz rekabet var ama yine kotu.

Uc tane oldugunda fiyati yuksek tutmak istiyorlarsa cok iyi is cikarmak zorundalar. Intel ve nvidia bu AI konularinda birbirini zorlayacak gibi, AMD de yazilim konusunda arkadan da gelse GPU donanim konusunda Intel'den deneyimli.

 

Islemcilerde de Intel, AMD, ARM/Apple birbirlerini zorluyor.

90'larda hizli buyumustuk, GPU'lar, CPU'lar heyecanliydi. Sonra bi durgunluk olmustu, bir islemci beni ilk defa 10 yil goturmustu. Tedarik zincirindeki sikintilar veya savas falan engel olmazsa yine heyecanli bir doneme girecek gibiyiz.

 

Kendimizi havaya ucurmazsak Matrix yakin (barinakta VR'da da olsa o baldiz buraya gelecek).

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Yeni bir "napah? İnanah mı kankaa?" haberi:

https://twitter.com/kopite7kimi/status/1549045512212742144

https://videocardz.com/newz/nvidia-geforce-rtx-4090-is-reportedly-66-faster-than-rtx-3090-ti-in-3dmark-time-spy-extreme-test

Ayrıca yeni mimarinin adı Ada Lovelace olup 3 ghz'in üzerine çok rahat çıkabileceği, 4090'ın ise 3 ghz altında bir hızla geleceğini de belirtmiş tweetçi.

Başka bir tweetçi de şöyle şeyler demiş:

https://videocardz.com/newz/full-nvidia-ada-ad102-gpu-reportedly-twice-as-fast-as-rtx-3090-in-game-control-at-4k

Çıkışı yaklaştıkça ağzı olan konuşuyor.

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş
13 minutes ago, mamad said:

Yeni bir "napah? İnanah mı kankaa?" haberi:

https://twitter.com/kopite7kimi/status/1549045512212742144

https://videocardz.com/newz/nvidia-geforce-rtx-4090-is-reportedly-66-faster-than-rtx-3090-ti-in-3dmark-time-spy-extreme-test

Ayrıca yeni mimarinin adı Ada Lovelace olup 3 ghz'in üzerine çok rahat çıkabileceği, 4090'ın ise 3 ghz altında bir hızla geleceğini de belirtmiş tweetçi.

Başka bir tweetçi de şöyle şeyler demiş:

https://videocardz.com/newz/full-nvidia-ada-ad102-gpu-reportedly-twice-as-fast-as-rtx-3090-in-game-control-at-4k

Çıkışı yaklaştıkça ağzı olan konuşuyor.

1.6-2x diyorduk. Dedikodular da o yonde anlasilan.

Bu sonuncu 4nm demis. Baska yerlerde 5nm diye geciyorsa pro modeller 4nm olup Geforce'lar 5nm gelecegi icin olabilir. Kaynaklarin hepsi 4nm diyorsa ilginc.

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Yalnız söylentiler gerçekse Nvidia, sanırım, ilk defa üst üste iki jenerasyonda büyük bir sıçrama yapmış olacak.

9xx -> 1xxxx serisi sıçramaydı ama 1xxx->2xxx serisi "meh" idi. 2xxxx -> 3xxxx serisi de iyi bir sıçramaydı. Bu da  1.6x-2x gelirse bayağı büyük iş olur.

rammstein beğendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş
4 hours ago, wazzap said:

Yalnız söylentiler gerçekse Nvidia, sanırım, ilk defa üst üste iki jenerasyonda büyük bir sıçrama yapmış olacak.

9xx -> 1xxxx serisi sıçramaydı ama 1xxx->2xxx serisi "meh" idi. 2xxxx -> 3xxxx serisi de iyi bir sıçramaydı. Bu da  1.6x-2x gelirse bayağı büyük iş olur.

Oyle.

Ote yandan RTX 3080 Eylul 2020. 2 yil oldu. Olsun biraz sicrama, ne yapacaklar 1.3x mi yapacaklar 2 yil aradan sonra? (Uygun fiyata kart bulunmadigi icin ona da razi oluruz, o ayri). 

Intel 3070'e yetisiyoruz diye sevinirken bi onunu kesmek lazim. AMD MCM'lere gecmeden bi govde gosterisi lazim. Apple M2'lerin 4'unu paketleyip pro modeli yapacaksa gerisinde kalmamak lazim.

Bir yandan yari iletken tedarik sikintisi falan. Diger yandan 90'larin basi gibi rekabet biraz kaynayip islemcilerde de GPU'larda da ufak heyecanlar olacak gibi.

 

Bir kac kez yazdim, bunun gercek zamanli* ve daha duzgun yapilabilmesinin yakin oldugunu dusunuyorum:

https://www.youtube.com/watch?v=KdfegonWz5g

Su zaten gercek zamanli:

https://www.youtube.com/watch?v=eXYUNrgqWUU

 

* Burada ifadelerin capture'u zaten gercek zamanli da deepfake bolumu henuz degil. 2D deepfake zaman aliyor ama GPU'da yaptirirsan 3D motorundan bir suru bilgiyi girdi alarak yapilacagi icin cok daha performansli AI algoritmasi seklinde oyunda veya surucude gomulu gelebilir. DLSS icin nasil dusuk cozunurluk yererliyse yeni kartlarin da aslinda normal islerde cok daha hizli olmalari gerekmiyor. 4K120hz'i DLSS'le veriyorsa, bu AI islerini daha da hizlandiracak ek birimlere sahipse (mevcut tensor core'larin aynisi ama daha fazlasi) Matrix'in kenarina geliyor.

 

"Enflasyon var diye hanimla kizim OnlyFans'a cikmasin, ben cikarim, live deepfake var" gunleri yakinda, VR'da.

epi tarafından düzenlendi
wazzap beğendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş
13 saat önce, epi said:

Su zaten gercek zamanli:

https://www.youtube.com/watch?v=eXYUNrgqWUU

"Enflasyon var diye hanimla kizim OnlyFans'a cikmasin, ben cikarim, live deepfake var" gunleri yakinda, VR'da.

aşırı yapmacık geldi bana. hiç gerçekçi gelmedi. VR olayı da bana göre aşırı gereksiz bir teknoloji olarak geliyor. alışamadım, alışmayı da düşünmüyorum açıkcası. sağlıklı bir teknoloji hiç değil. 

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş
4 hours ago, jackjoker said:

aşırı yapmacık geldi bana. hiç gerçekçi gelmedi. VR olayı da bana göre aşırı gereksiz bir teknoloji olarak geliyor. alışamadım, alışmayı da düşünmüyorum açıkcası. sağlıklı bir teknoloji hiç değil. 

Daha yeni basliyorlar. Pixar'in ilk 3D filmlerine bakip "bizim neslin cizgi filmleri daha guzeldi" diyen arkadaslar vardi.  Henuz estetigi oturmadigi icin, biri zirvesinde, digeri baslangic seviyesinde oldugu icin haklilik paylari vardi. Tahminimce cocuklari Pixar/Disney'e asiktir.

 

VR'in illa boyle olmasi gerekmiyor:

https://www.youtube.com/watch?v=ZAcavi6aOGY

Isteyen ayarlara girip boyle de yapabilecegi icin guzel:

https://www.youtube.com/watch?v=nCk1__TYksU

 

Kartlar ikisini de yapabilecekleri seviyelere bizim omrumuzde geliyorlar.

epi tarafından düzenlendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Yeni neslin üst-uç gpusu için ısrarla 800w tdp deniyor. Felaket yüksek. Hatta saçmalık:

https://videocardz.com/newz/flagship-nvidia-ada-sku-might-feature-18176-cores-48gb-memory-and-800w-tdp

Bellek tarafında 48 gb denmiş. Olabilir elbette ama 3090'lar gibi eski Titan'ın yerini alacak modellerde söz konusu olur sanıyorum. Ama bu sefer Nvidia bellek tarafında daha fazla saçmalayamaz sanırım. Zira son iki nesilde (Turing ve Ampere) bellek miktarını artırmayarak kartları piç etti. Amd'den de bellek miktarı olması gerektiği gibi kartlar gelince, bu sefer iyice saçmalayıp 10 gb 3080 ve 8 gb 3070 ardından 12 gb 3060 ve 8 gb 3050 gibi kartlar gördük. Laptop tarafında ise iş iyice garipleşmişti.

Nvidia da saçmaladığının farkında ama satış ve karlılık konusunda sorun yaşamadığı için bellek konusunda beklediğimiz kadar düzgün bir iş yapmayabilir yine.

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Yeni rivayetler kartlarin mevcut nesille benzer guc ihtiyaci oldugu seklinde. Bu 800W falan bana biraz hikaye gibi geliyor. Bu sogutma ve driverlarla oralara kadar salabiliyoruz diye testlerini yapmislardir belki ama nihai kartlarin o seviyelerde gelmesinin gerekecegini sanmiyorum. AMD'den MCM falan acayip bir seyler gelip zorlamasi gerekir. Yoksa al 3080'u, cak daha hizli ve 16GB bellegi, TSMC'de yeni uretim teknolojisinde urettir, benzer guc kullaniminda 1.6-2x hizlansin zaten.

Rakip 7nm'deyken nvidia 30x0 serisinde Samsung 8nm ile kotardi isi. Simdi TMSC 4nm veya 5nm bekleniyor (belki server vs pro kartlar 4nm, oyuncu kartlari 5nm olur). Guc gereksiniminin o kadar artmasi cok aklima yatmiyor. Bu "Navi gelecek, nvidia'yi oldurecek, hepimiz ufoya binip gidecegiz, cool-aid icer misin" tarzi haber kaynaklarina guvenemedim.

Fikrim degismedi.

 

On 5/30/2022 at 2:34 AM, epi said:

1.6-2x performans isteruk.

 

5nm olacak. Gucu kartin kaldiracagi kadar serbest birakip rekabette iyi konumlanacaklar. Ama 300W'a da limitleseniz kart gayet guzel kart olacak.

3090Ti'lar mesela 450W, marka bazi kartlar 550W, ama 300W'a limitleyip calistirdiniz diye uzmuyor, hayvan gibi performans veriyor (3080Ti seviyesi ama daha az guc cekerek)

Ayni mimariyi laptop'a takip 80-130W calistirinca performans cakilmiyor.

 

Rekabette her fps'i sayip "ulan arada 2 fps fark var" demek yerine "off, %7 fark atmis" diyecegimiz icin dibine kadar zorluyorlar. Hayir onlar zorlamiyorken biz sogutmasini degistiriyorduk, voltajini yukseltiyorduk, biz zorluyorduk. Simdi dogrudan oyle geliyor, duvardan kartin cekebilecegi kadar cekiyor, driver'dan yanmayacagi kadar serbest birakiliyor. O 2 fps'yi de aliyoruz, 28 degil 30 fps oluyor. Neredeyse yari miktarda guc verip calistirdiginda az-cok ayni performansi veriyor ama "bilmem kimin karti 20W daha cok basiyormus abi" diye gidip o karti aliyoruz.

Cok guc cekmesinden mimarinin enerji verimliliginin dusuk oldugu sonucuna varmayalim hemen.

 

Yalniz notebookta duvara baglamayip pilden calistirdin mi performans Apple'a gore kotu. O bu nesilde de devam eder. Ama olsun o kadar, duvara bagladiginda yine agzina agzina vuruyor.

 

rammstein beğendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş
On 7/19/2022 at 2:55 PM, epi said:

Bir kac kez yazdim, bunun gercek zamanli* ve daha duzgun yapilabilmesinin yakin oldugunu dusunuyorum:

https://www.youtube.com/watch?v=KdfegonWz5g

Su zaten gercek zamanli:

https://www.youtube.com/watch?v=eXYUNrgqWUU

 

* Burada ifadelerin capture'u zaten gercek zamanli da deepfake bolumu henuz degil. 2D deepfake zaman aliyor ama GPU'da yaptirirsan 3D motorundan bir suru bilgiyi girdi alarak yapilacagi icin cok daha performansli AI algoritmasi seklinde oyunda veya surucude gomulu gelebilir. DLSS icin nasil dusuk cozunurluk yererliyse yeni kartlarin da aslinda normal islerde cok daha hizli olmalari gerekmiyor. 4K120hz'i DLSS'le veriyorsa, bu AI islerini daha da hizlandiracak ek birimlere sahipse (mevcut tensor core'larin aynisi ama daha fazlasi) Matrix'in kenarina geliyor.

 

"Enflasyon var diye hanimla kizim OnlyFans'a cikmasin, ben cikarim, live deepfake var" gunleri yakinda, VR'da.

Bu:

https://www.youtube.com/watch?v=JkUF40kPV4M

 

Ama deepfake uygulayacagi sey video goruntusu degil, unity/ue5'dan gelen goruntu:

https://www.youtube.com/watch?v=zSmN7aXSd5Y

(Ozellikle 1:04 sonrasi isiklandirma da tam oturdugu icin iste bu dedirtiyor)

 

Unity/UE5'dan gelen goruntudeki animasyonlar da video izleyerek yuz kaslari nasil calisir diye egitilmis AI tarafindan yonetiliyor zaten. Ama o goruntunun ustune son bir katman lazim.

 

O katmanin yapacagi sey de aslinda deepfake uygulamak degil. Bu:

On 12/26/2021 at 3:30 PM, epi said:

https://www.youtube.com/watch?v=WU0gvPcc3jQ

  • Tensor core’lari kullanan AI tabanli bir post processing ile bunu gercekten ayirt etmesi zor hale getirmeleri mumkun. Onu da yapacaklari gun bence sandigimizdan daha yakin.*
  • Nanite geometri, hardware ray tracing, gercek zamanli isiklandirma, metahuman modeller falan derken konsolda yeni neslin limitlerini gostermisler.
  • 20 yil oncesinin film CGI'indan iyi. Kusursuz degil ama o kusurlarin cozulmesi icin 20 yil daha beklemek gerekmeyecek.
  • Ayni demo PC’de daha temiz (az noisy) gozukur ve high frame rate calisir. TSR yerine DLSS'le burada gordugumuzden daha iyi (temiz) gozukur. Nvidia donaniminda ray tracing de daha hizli ve temiz yapilir. Ic cozunurluk de daha yuksek tutulabilir ve/veya 60fps yakalanir. 2022 sonu PC'lerde daha da cosar.
  • Uncanny valley Metahuman'lar yerine Robo Recall'daki robotlar veya Half Life'taki gibi maskeli askerler ile bir demo hazirlasalar gercekten ayirmak zor olacak. Robotlar nanite ile cilgin detayli hazirlanabilir cunku bukulmeleri gerekmiyor, rigid yapidalar.

Nanite super. Geometri pop-in'den nefret ediyordum, 30 yildir Level of detail ve tesselation'i kotaramiyorlardi, videolardan gorebildigim kadariyla cozulmus gibi gozukuyor. Simdilik eksik yani rigid yapida olmasi. Mesela Valley of the Ancient UE5 tech demosundaki dev robot da nanite kullandigi icin cok detayliydi ama egilip bukulen kas gibi bir yapisi yoktu. Oyle olunca mesela metahuman'lar nanite degil. Simdilik. 

Lumen guzel. Oyunlarin her platformda gercek zamanli isiklandirma icin tasarlanabilecek olmasini saglamasi acisindan faydali. Fakat "vay be, gercek zamanli isiklandirma yazilimdan yapilabiliyormus demek, nvidia bizi yiyormus" demeye hevesli arkadaslar cok da heyecanlanmasin. 

  • "Software"den kasit eskisi gibi CPU'da calisiyor degil, GPU'nun programlanabilir shader birimlerinde calisiyor. Daha dogrusu calisiyordu, degisti.
  • Matrix Awakens demosunda onu da geride biraktilar, artik donanimsal ray tracing uzerinden calisiyor. Yani nvidia'nin yoluna geldiler aslinda.
  • nvidia bu isi daha hizli ve daha temiz yapiyor. Goruntude daha az bozulma var, performans daha yuksek.

Ayni durum TSR (temporal super resolution) icin de gecerli. DLSS daha temiz, daha performansli.

Nvidia'da denoising ve super resolution gibi AI tabanli isleri yapacak Tensor core'lar oldugu icin bu isi daha iyi yapiyor (ya daha temiz goruntu, ya daha performansli, ya da ikisinden bir sepet). Ray tracing performansi da daha yuksek oldugu icin denoising oncesi malzeme de zaten daha cok veri iceriyor (daha duzgun). Neticede UE5 demolarinda hareket eden golgelerin arkalarinda biraktigi kir, genel goruntude "film grain" gibi gozuken ama aslinda ray tracing denoising'in yeterince temiz olmamasindan kaynaklanan kir nvidia demolarinda daha az. O kadar kir beni bozmaz diyorsaniz nvidia donaniminda elde edeceginiz fps daha yuksek. 

UE5 guzel, sadece tek donanimda calisacak sekilde degil, genel olarak calisacak sekilde oyun tasarimina musade ediyor. Ayni icerik nvidia'da calistiginda daha temiz goruntu, daha yuksek performans gorulecek. Multiplatform tasarlanacak oyunlarin minimum donanimda da gercek zamanli isiklandirma ve yuksek detay seviyesi hedefleriyle hazirlanacak olmasi "bu RTX'i kullanacak oyunlar gelene kadar kim ole, kim kala" endisesine merhem oldugu icin UE5 PC icin de iyi.

Bu yil PS5'te, XB'da gosterirler, tanitim yaparlar. Seneye PC'de goruruz. Bu sehir sanirim UE5 editoru ile gelen bedava icerigin parcasi olacak. Yani videoda 8. dakikadan sonrasini izleyip "bu kalitede GTA gibi bir oyun olsa da oynasak" diyorsaniz muhtemelen UE5 ile mod hazirlayip kendisine isim yapmak isteyen arkadaslarin hazirlayacagi icerikle o tada kosmak mumkun olur.

Hem kaliteli icerik uretebilecek teknolojiyi her platformda oldugu kadar calisacak sekilde hazirlamislar, hem de icerigi hazirlayacak arkadaslara baslangic noktasi olarak koca bir sehir sunmuslar. Daha ne olsun.

 

*Grafiklerde bir devrimin esigindeyiz ama millet farkinda degil. Hala "RTX gerekli mi" videolari yapiyorlar.

Gercek zamanli cizilen grafigi 720-1080p ve dusuk cozunurluklu dokularla ama yuksek hizda hazirlayan, onun uzerinden yapay zekayla 4K ve fotograf gibi detayli halini cikartan bir oyun gormemiz cok uzak degil. Adamlar zaten Death Stranding gibi bir oyun icin aktoru scan edip 3D modele cevirerek, motion capture, performance capture ile animasyona cevirerek oldugu kadar oyuna aktariyor. O oyun ici goruntuyu girdi olarak tanimlayip, aktorun gercek hayattan alinma goruntusunu cikti olarak tanimlayip network'u egitmesi gerekiyor. Bugun DLSS icin de ayni mantikla, dusuk cozunurlu goruntuyu girdi, yuksek cozunurluklu goruntuyu cikti olarak gosterip bunu gordugunde bunu ver dedikleri bir neural network'u egitiyorlar. Onun bir adim otesi iste. Tensor core'lari super resolution icin degil, goruntuyu daha gercekci hale getirmek icin kullanacak bir algoritma. CGI goruntuye bakip bunun gercek goruntuye benzemesi icin biraz daha soyle olmasi lazim diyerek degistirerek ekrana verecek. Baba kameralarla o goruntuyu cekip, ayni anda motion capture'u de yapacak teknoloji varsa network'u egitecek veriyi toplayacak teknoloji var demektir. Sonrasi o networku az kalite kaybiyla gercek zamanli calisacak kadar hizli hale getirmek.

Intel'in bu konuda calismalari var, basit de olsa gercek zamanli calisiyor.

(1) Insan teni hala tam olmuyor, (2) hala bazen goruntude kusurlar var, (3) hala cok yaklasinca doku detay seviyesi gercek hayat kadar kadar yuksek degil seklindeki butun eksikler bu sekilde temizlenebilir.

Neticede, 2022 sonu gelecek yeni nesil nvidia kartlarda ve sonrasinda, bu tarz UE5 icerikli bir oyunu alip DLSS ile geneli daha temiz, RTX ile isiklandirmasi daha temiz goruntu cikartip bu tarz yapay zeka tabanli bir son asama uygularlarsa "photorealism" hayali gercek olacak.

 

On 6/14/2022 at 8:56 PM, epi said:

https://www.youtube.com/watch?v=zSmN7aXSd5Y

  • UE5'te metahuman anime etmis.
  • Ona deepfake uygulamis.

(deepfake gercek zamanli degil ama bunu soylememis)

 

Bunun gercek zamanlisini dusunun. Evet deepfake'ten daha hizli calismasi lazim ama cok daha az is yapacak.

  • Deepfake gibi 2D goruntuye bakip hatali tahminler yapmayacak, neyin ne oldugunu cozmek zorunda olmayacak. 3D depth bilgisi, isigin nereden geldiginin bilgisi, animasyon bilgisi vs zaten oyun motorunda mevcut.
  • Modeli transforme etmesi gerekmeyecek, deepfake gibi butun yuzu degistirmeyecek. Model mesh to metahuman gibi hazirlanmis olacak.
  • Sadece tenin isiga verdigi tepkiyi ve kivrimlarin hareketlerini, detaylari daha gercekci hale getirecek.

GPU'lardaki yapay zeka birimlerini bunu yapacak sekilde kullandiklarinda son bir sicrama yasayacagiz. Sadece insan yuzu degil, materyel isiklandirmalari da, daha az plastik, daha cok gercek hayat gibi olacak.

 

On 12/10/2020 at 0:28 PM, epi said:

6-7 yil oncesinin subsurface scattering tech demolari ve bu oyunun 7 yil onceki teaser videosundaki kizin yuzu gibi isiga daha gercekci tepki veren insan tenini daha yuksek kalitede kotarsalar super olur. Etrafta gezen karakterlerde degil, sadece ekranin bilmem kacta birini kaplayan, yani etkilesime girdiginiz karakterlerde olsa yeter. Acikcasi bunu nvidia’nin deep learning ile driver seviyesinde yapip DLSS gibi bir ozellik olarak sunmasi, oyunlarin da tek yamayla destek eklemesi daha olasi, DLFX gibi bir de isim koyarlar, tam olur. Nvidia Gameworks altinda VisualFX pakedinde Faceworks var ama DL tabanli driver seviyesi bir cozum degil. Driver’in “aha burayi tanidim, insan yuzu bu, bunun biraz daha soyle gozukmesi lazim” diye AI’la bu isi performans kayipsiz kotarmasi, bu 7 yillik demolara kiyasla kaliteyi de arttirmasi “game changer” olur.

https://youtu.be/P99qJGrPNLs
https://youtu.be/F9y-8IzNpQ4

 

 

On 5/16/2021 at 7:29 PM, epi said:

Nvidia'dan beklerken ilk demo videosu Intel'den geldi:

https://www.youtube.com/watch?v=P1IcaBn3ej0

Oyun goruntusunu gercek dunyadan goruntu ile karsilastirip bunun buna benzemesi icin soyle degismesi lazim diyen neural network. Gercek zamanli. Stabil, kareden kareye goruntu atlayip ziplamiyor, araya olmamasi gereken seyler sokmuyor. Gercek zamanli ve stabil oldugu icin ilginc, goruntu kalitesi zamanla daha iyi olur.

Nvidia'nin tensor core'larla tam da bu mantikta isler yapmasini bekliyorum.

 

On 8/25/2020 at 8:24 PM, epi said:

Hatirlarsaniz Metro’da RT ile GI yapiyorlardi ama goruntude kenarda kosede fijirdayan yerler yakalamak mumkundu. Dolabin icinde karanlikta kalan yer onceki karelerde gozukmedigi icin reconstruct edilmesi de zaman aliyordu. Veya Quake II RTX’in ilk versionunda patlamalarda goruntu bozulmalari oluyordu. Iste icerigi bildigi icin yeni karede bunlarin oldugu noktalarin tamamina yakinini tam cozunurlukte render eden, goruntunun baska yerlerini cogunlukla onceki karelerden construct eden akilli bir algoritma olusturmayi basardilar ki o bozulmalar gitti.

Bu daha baslangic. Deepfake benzeri mantikla goruntuyu sentetize edecek hiza ulassinlar, oyunlarin cehresi degisecek. “Vay be, oyunlar eskinin CGI filmleri gibi oldu” demek yerine “yuh be, ne dandik oyun, eskinin CGI filmleri gibi” diyecegiz.

 

On 6/2/2022 at 1:52 PM, epi said:

Bu neslin tanitim demosunu merakla bekliyorum.

10 yil once "Kara" (Quantic Dream) etkileyiciydi
https://www.youtube.com/watch?v=TDxOUD7AgJk

Bugun Unity Enemies etkileyici:
https://www.youtube.com/watch?v=eXYUNrgqWUU

 

Nanite gibi cozumlerle limitsiz geometri gercek zamanli level of detail ile ekrana ciziliyor. UE5'in Matrix Awakens demosu gibi koca bir sehir detayli sekilde ekrana yansitilabiliyor:
https://www.youtube.com/watch?v=WU0gvPcc3jQ

NVIDIA'nin yeni algoritmalariyla milyonlarca isik kaynagi gercek zamanli hesaplanabiliyor.
https://www.youtube.com/watch?v=MUDveGZIRaM

 

Elle cizip, veya metin ile tarif edip bana boyle bir sey ciz dediginde fotograf kalitesinde goruntu cikartan yapay zeka zaten mevcut:
https://www.youtube.com/watch?v=eaSTGOgO-ss

Bunu yaparken algoritmaya cok limitli bir bilgi vermis oluyorsun. Onun yerine oyun goruntusunu versen hem saniyede 120 kare goruntu veriyor olacaksin, hem de verdigin her karede cok daha fazla bilgi olacak.

 

Yapay zeka bu sekilde devamliligi olan oyun goruntusunu alip gercek dunyadan video goruntusune benzer sekilde donusturmek uzere egitilebiliyor:
https://www.youtube.com/watch?v=22Sojtv4gbg
https://www.youtube.com/watch?v=50zDDW-sXmM
Intel bunu 1 yil once gosterdi. Kartlariyla boyle bir seyler sunmasi mumkun, nvidia da bos durmamistir.

 

3090 seviyesi bir kartta (hatta konsol muadili 3060 gibi bir kartta) Unity Enemies tarzi modeller, Matrix Awakens tarzi limitsiz geometri ve bu yeni algoritmalar tarzi limitsiz isiklandirma ile hazirlanan icerigi dusuk ic cozunurluk ve kusurlarla da olsa cizerek hazirlayabiliyorsak,  o icerigi ayarlardan kisarak calistirabiliyorsak, 4090 gibi bir kartta o goruntuyu alip DLSS, filtreleme vs gibi son islemleri ceken yapay zeka destekli islem birimleri bu tarz gercek dunya goruntusune cevirmek icin egitilebiliyorsa Matrix'in kenarina gelmisiz demektir.

4090'da zaten 3090'in iki kati islem birimi olacak gibi. AI birimlerine ince ayar cekip ray tracing birimlerini de iki katina cikartarak bu tarz yeni teknolojilerde 2080-3080 gecisi gibi bir sicrama yapmalari da makul olur.

Bu tarz bir demo ile 4090'i sunarlarsa saglam olur. Ilk RTX serisiyle ray tracing hedefini yakalamistik, bu seriyle de neural rendering ile photorealism hedefini yakaladik seklinde bir PR yaparlar. Gozlerimiz oyle bir demo gormus olur. Demo 4090'da tam hiz calisir, bize de yuksek fiyatli o karti alma gazini vermis olurlar. 

Yoksa "DLSS ile 8K da yapiyoruz, hem bak 8K TV'ler de piyasada" ile yetiniriz. Nvidia da sadece onun getirecegi satislarla yetinir. (Gerci o da yeter ama gaz bir demo guzel olur).

 

On 8/17/2021 at 5:19 PM, epi said:

nvidia'nin mutfak videosunda CGI'a kaliteli deepfake uygulamanin guzel ornegini vermis oldular. Tensor core'larda gercek zamanli calisacak hiza cekerlerse sonuc acayip olacak.

Benzerini ortama da uygulayabiliyorlar ve Minecraft grafigini gercekci grafige cevirebiliyorlar ama geometrisi kutu kutuysa yine sonuc kutu kutu olabiliyor (simdilik). Yani UE5 nanite gibi geometriyi duzgun veren bir altyapiyla hazirlanmis icerige uygulanirsa sonuc cok iyi olabilir.

https://www.youtube.com/watch?v=jl0XCslxwB0

Grafiklerde bir devrimin esigindeyiz ama millet farkinda degil. Hala "RTX gerekli mi" videolari yapiyorlar.

Gercek zamanli cizilen grafigi 720-1080p ve dusuk cozunurluklu dokularla ama yuksek hizda hazirlayan, onun uzerinden yapay zekayla 4K ve fotograf gibi detayli halini cikartan bir oyun gormemiz cok uzak degil. Adam Death Stranding gibi bir oyun icin aktoru scan edip 3D modele cevirerek, motion capture, performance capture animasyona cevirerek oldugu kadar oyuna aktariyorsa, o oyun ici goruntuyu girdi olarak tanimlayip, aktorun gercek hayattan alinma goruntusunu cikti olarak tanimlayip network'u egitmesi gerekiyor. DLSS icin de ayni mantikla, dusuk cozunurlu goruntuyu girdi, yuksek cozunurluklu goruntuyu cikti olarak gosterip bunu gordugunde bunu ver dedikleri bir neural network'u egitiyorlar. Onun bir adim otesi iste.

Baba kameralarla o goruntuyu cekip, ayni anda motion capture'u de yapacak teknoloji varsa network'u egitecek veriyi toplayacak teknoloji var demektir. Sonrasi o networku az kalite kaybiyla gercek zamanli calisacak kadar hizli hale getirmek. Unreal Engine falan filmlerde, Mandalorian gibi yapimlarda yesil perde yerine ortami gercek zamanli cizmek icin kullaniliyor. Ama Luke'u oraya koyalim dediklerinde hala super is yapamiyorlar. Yonetmen koltugunda oturan adam monitorunden "tamam Luke bu take'de guzel oldu" diyebilecegi sekilde oyuncuyu degil, deepfake uygulanmis halini izlemek isteyecegi icin bu konularda yapilacak arastirmaya para yatirabilecek dev bir endustri var aslinda.

Bunu nvidia genel bir algoritma olarak driver seviyesinde uyguladiginda eski bir oyunu acip "vay be, bu oyun boyle miydi" demek de mumkun olabilir. Ama o gun gelmeden, Valve veya Kojima falan bunu oyun seviyesinde yapsa, bir oyun yaninda o oyun icerigini hazirlarken kaydedilmis veriyle egitilmis yapay zeka dll dosyasiyla gelse diger oyunlar yaninda PS2 gibi kalacak.

Mobil VR icin de muthis bir adim olur. Quest 2'deki Qualcomm ‎Snapdragon XR2 veya Valve Steam Deck'teki SOC/APU'nun GPU gucu limiti onemini kaybeder, yaninda AI icin ozel bir birim olsun yeter.

Tam Matrix'in kenarina geldik, esigi gecene kadar yangin, sel, savas vs. ile tas devrine donmesek gormek kismet olur belki.

 

On 8/4/2021 at 11:49 AM, epi said:

AI tabanli grafikler kopup gidiyor. Deepfake'i real-time yapabildikleri gun nvidia'yi "uncanny valley'i astik" diye bagirirken gorecegiz.

https://www.youtube.com/watch?v=-4M-xoE6iH0

Su ustteki grafiklerle mekanin yapildigi, mekanda kontrol ettigimiz animasyon karakterin gercek zamanli render edildigi bir third person platform oyunu yapilsa kamera hareketi limitli oldugu icin bu algoritmanin becerisinin disina cikmaz, 60 fps calisabildigi icin ilk photorealistic oyun olarak tarihe gecer.

Kontrol ettigimiz karakter de gercek dunyadan bir oyuncak olursa scan edilip aktarilmasi mumkun olur. Toy Story, nereden nereye hesabi. Her ekran eski tip oyunlar gibi tek tek yuklenir, tirmanip, atlayip hoplayip puzzle cozerek bir sonraki ekrana gecerek ilerlenir, nihai amac mekandan kacmak olur.  Birkac ekrandan olusan ilk bolumu yapip bedava Steam'e salarak full oyunu kickstart etmek icin bagis toplansa fenomen olabilir.

Aslinda su alttaki oyunun icerigine erisilebiliyorsa oyuncak scan etmek yerine hem karakter, hem hareketli puzzle parcalari icin bu icerik kullanilabilir, bir proof-of-concept demo cikarilabilir:

https://www.youtube.com/watch?v=2p71ltZ_qH0

Oyunun modu olarak surulup orijinal oyunu gerektirirse yasal bir sorun da olmamasi lazim.

 

On 11/18/2020 at 10:15 AM, epi said:

Algoritmayi sadece yuksek cozunurlukle degil, level of detail uygulanmamis film kalitesi modellerle, 16K dokularla train ettikleri gunleri de gorecegiz. Oyun performansinda film kalitesine bir adim daha yaklasacak. Sonrasinda algoritmayi gercek video goruntusu ve ona denk gelen 3D modelle performans capture goruntusunu kullanarak egiten, aha bu oyun goruntusunu al, bu insana cevir diyen bir training data ile elde edilecek sonuclari gorecegiz. Bu deepfake videolari gibi olacak. Ama bunlarin gercek zamanli calismasi icin cok hafiza gerekebilir. Neural network tabanli algoritmalarin en gelismis halleri hem islem gucu, hem hafizaya ac.

Yani RT falan mevcut nesil, yapay zekayla oyun kalitesinin otesine gecmek next-gen.

Adamlar serverlar icin asagi yukari iki 3090’a denk gelen GPU’lar cikardilar (40GB hafiza, 2TB bandwidth). Tek makineye 8 tanesini koyabiliyorsun. Onda gercek zamanli calisacak bir modelini yapsinlar, optimize edip kaliteden en az kayba yol acan dallarini budaklayarak mesela 3090/4090’da demosu calisacak hale getirebilirler.

Standart hafiza miktari artmadi, dokular cakildi kaldi. O DLSS’i dusuk cozunurluklu goruntuden yuksek cozunurluk detayi cikaran mevcut halinden alip, dusuk cozunurluklu dokudan yuksek cozunurluklu halinin detayini cikaracak hale getirmeleri lazim.

Sihir, buyu degil, oyun studyolarindan compression/optimization/level of detail uygulanmamis model ve dokulari alip o 8 GPU’lu 320GB grafik hafizali serverda oyunu o sekilde render edecekler (gercek zamanli olmasi gerekmiyor). Ayni oynanisi bire bir default ayarlarda render edecekler. Bu ikinciyi gorunce su ilkine cevir diyecekler. Arka planda neural network cok kompleks olacak belki ama oraya ulasmak icin yapmalari gerekenler kesfedilmemis seyler degil. Yeter ki nihai algoritmayi calistiracak islem gucu, hafiza miktari ve bandwidth kartlarda mevcut olsun.

3090’de atiyorum “10GB gerektiren ayarlarda 10GB da yapay zekaya ayirarak 20GB kullanip 80GB’lik kart kalitesine yaklasiyoruz” deseler aynisini “4GB gerektiren ayarlarda, 4GB da yapay zekaya ayirarak 8GB kartta 32GB’lik kartin kalitesine yaklasiyoruz” diye pazarlayabilirler. Performans dusmeden kalitede sicrama olur.

3D modeli insan goruntusune cevirecek yapay zeka icin ozel kameralarla performans capture aninda alinmis yuksek kare ve cok yuksek cozunurluklu goruntu lazim. O simdilik bekler. Ama dusuk kalite 3D model ve dokuyu yuksek kalite 3D model ve dokuyla eslestirecek training data her oyun studyosunun elinde olmali. En azindan “oyunlarin 30 fps cinematic’lerinde kullandigimiz asset kalitesini 120 fps oynanis sirasinda bu sekilde elde edecegiz” demeleri mumkun olur.

Yani DLSS tarzi teknolojilerin hala baslangic noktasindayiz. 1080p/1440p goruntuden 4K cikardik, Marvel oyunu goruntusunden Marvel filmi goruntusu de cikarirsak tam olacak.

 

On 5/29/2021 at 9:21 AM, epi said:

Lumen hardware RT'nin kisitli oldugu durumlarda, ozellikle konsollarda iyi olabilir. Oyunlarin her platformda gercek zamanli isiklandirma icin tasarlanabilecek olmasini saglamasi acisindan faydali.

Ama asil Nanite super. Megascan'lerle kullanildiginda vaktiyle Carmack'in yapmak istedigi seyler bunlar. Uzun suredir bekledigim gelismeler.
https://www.youtube.com/watch?v=-50MJf7hyOw

Sunun (metahuman ornegi) gercek zamanli olduguna inanmak zor:

https://www.youtube.com/watch?v=y5eFFro1z24

UE5, bol hafizali bir 7nm nvidia GPU'yu sinirlarinda calistirarak film kalitesinde goruntu sunabilir. Metahuman, Nanite, RTX Direct Illumination, DLSS bir arada kullanilan bir tech demo harika olur. Uzerinden son bir gecisle sunun o gune kadar gelismis halini de yaparsa animasyonlara dikkatli bakmadan gercek sanilabilir:

https://www.youtube.com/watch?v=P1IcaBn3ej0

Bu nesil tasarim araclari oturur, ilk ornekleri goruruz. PS6-7 neslinde standartlasir.

 

On 7/14/2019 at 2:49 PM, epi said:

Neural rendering oyunlarda buyuk devrim olacak.

https://www.youtube.com/watch?v=2xWnOL5bts8

 

RTX'lerdeki Tensor Core'lar bu is icin kullanilabilir. Yeni gelecek konsollarin donanimi yeterince guclu olursa belki onlarin omru icerisinde bu isleri benzer kalitede gercek zamanli yapan algoritmalar hazirlanir, oyunlardaki grafik kalitesinde radikal bir sicrayisin ilk orneklerini gorebiliriz. Gercek dunyadan alinan goruntulerden ortamin modelini olusturma konusundaki calismalar bu tarz neural rendering ile birlesirse sonuc acayip olur.

 

Gercek zamanli rendering'de tum ortamin bu sekilde hazirlanmasina daha vakit olabilir. Buradaki gibi 2D goruntuden yeni 2D goruntu elde edilmesinin gercek zamanli yapilmasina da vakit olabilir. Ama hybrid/melez cozumler cok ilginc olabilir. Her zamanki gibi 3D hazirlanmis bir karakterin uzerinden butun derinlik ve isiklandirma bilgisine mukemmel erisimi olan oyun motorunun o karakterin sadece yuzunu gercek bir yuzle degistirmesi 2D videoyu analiz edip yuzu degistirmesinden cok daha kolay olacaktir. Yani su alttakini yapan algoritmanin erisimi olan veri cok daha kisitli aslinda:

https://www.youtube.com/watch?v=UlvoEW7l5rs

 

Meshur Half-Life 2 G-man videosunun oyunun rendering motoru tarafindan G-man'in yuz modelinin butun ayrintilari ve ortam isiklandirmasinin butun ayrintilari bilinerek gercek bir insanin (mesela Jordan Peterson) yuzunden alinan goruntulerle gercek zamanli yeniden sekillendirilmesi animasyondan daha gercekci sonuclar verebilir.

 

Burada kastettigim teknik gercek insanlarin yuzlerini tarayarak doku elde edip bu dokunun giydirildigi modele animasyon uygulamaktan farkli. Yine oyun motoru ilk etapta G-man'in yuz ifadesini animasyon sistemi ile belirliyor, bunu takiben neural network gercek bir insanin farkli videolarini tarayarak o animasyona denk gelen gercek goruntuyu kullanip nihai goruntuyu olusturuyor. Oyun motorunun G-man'e verecegi animasyonlar bastan belli oldugu icin bunlari kullanarak train edilen bir network hangi animasyona Jordan Peterson'in hangi videosundaki verinin denk geldigini bildigi icin bu training supercomputer'da bir kez yapilip nvidia'nin driver'larina yuklendiginde Tensor Core'lar bu islemi gercek zamanli yapabilir.

 

Global Illumination vb. gelismis efektlerin path tracing ile donanimda gercek zamanli yapildigi bir oyunda karakterlerin yuzleri de gercek oyunculardan goruntulerle neural rendering teknikleri kullanilarak degistirildiginde, isiklandirmanin etkisinin birebir korunmasi mumkun olursa elde edilen kalite gercek hayat seviyesine olmasa da Marvel filmlerinin tarzina yaklasabilir. Iron Man maskesi Robert Downey Jr'in yuzune inmeden once zirhin kenarlarinin dusurdugu golge ile yuzun golgelendirilmesi gercek hayat kadar mukemmel olmuyor ama sonuc cogu zaman etkileyici oluyor. O tarzin nispeten dusuk cozunurluklusu gibi bir sonuc elde edilebilir.

 

 

On 3/27/2022 at 3:42 PM, epi said:

Depth bilgisi olmadan, 3D veri olmadan bunu yapan:

https://youtu.be/DJ2hcC1orc4

https://youtu.be/e0yEOw6Zews
 

Bu arastirma/gelistirmeden elde ettigini depth datasinin ve bir onceki karedeki datanin elinde oldugu oyunlara uygulayacak sekilde driver’a gomdugunde ne yapar, siz dusunun.

(Nefesi yetmediginde ara kareleri generate ederek frame'i sabit tutmak, nefesi yettiginde super-resolution ile kaliteyi arttirmak)

TNT detonator driver’larindan beri, nvidia donanim oldugu kadar yazilim firmasi.

 

Neye yarayacak? Buna yarayacak:

 

On 12/3/2016 at 6:31 PM, epi said:

Saka bir yana VR aktivitesi sonucunda insanlarin ruyalari daha canli (vivid) hale geliyor, VR'da ziyaret ettikleri mekanlar ruyalarinda kendine yer bulabiliyor. Sanki oradaymis gibi olma hissi pesinde kostukca bunun bilincaltina etkisi de o oranda gucleniyor, gun icinde yasadiginiz seyler hafizaya simgeler halinde yazilirken araya muhtemelen bunlar da karisiyor.


Ruyalar ve bilincaltinin otesinde, beyin gorsel veriyi islerken tahmine de dayali, gecmis deneyimlerle olusturulmus bir neural network gibi calisiyor.

 

 

On 3/31/2022 at 8:09 AM, epi said:

Sen training oyunlarini oynayip VR nedir ogrenirken arka planda neural network tracking icin kameralarin aldigi goruntuyu analiz edip odayi ogreniyor olacak. Ondan sonra o odanin digital representation'i icinde sana mukemmel grafik ortam (odan) icinde onun basit 3D mesh verisine gore fizikleri olan (duvar nerede, koltuk nerede bilen) karakterler ile etkilesim mumkun olacak.

https://youtu.be/DJ2hcC1orc4

Odanin isiklandirmasi falan da etkilesime gore degisecek, sanatsal icerik daha anime tarzindaysa odanin renkleri ve dokusu da ona gore adapte edilebilecek, kendi odanin olmasini istedigin hali icinde etkilesime girmek istedigin tarzda karakterlerle istedigin tarzda etkilesimi secerek kendi dunyani yaratabileceksin.

Biometrik veriyi de analiz edip "su modeli gosterdigimizde kalbi daha cok hizlandi, goz bebekleri buyudu, heyecanlandi, daha cok bu tarz modeller gosterelim" diyerek, "koseden firlayan zombiyle su kadar korkuttugumuzda kaski cikardi, kalbi cok hizlandi, rahatsiz etmeden o seviyenin altinda, kenarina getirelim, heyecanlansin ama fazla gerilmesin" seklinde icerigin tarzini da senden gelen tepkiye gore ayarlayan icerik yapay zekasi da oldugunda etkilesim kendisini sana gore tasarliyor olacak.

Yukaridaki nesiller buraya kadar cizilmis bir harita. Asil bu noktaya geldigimizde kisiye ozel icerik kendi kendini hazirliyor olacak. Tam devrim olacak.

 

On 8/4/2022 at 10:05 AM, epi said:

Su tarz film kalitesi photorealistic ortamlarda:

https://www.youtube.com/watch?v=_R-tN9l6onQ 

Gaz maskesi ve uniforma vs. ile uncanny valley'e dusecek yerleri saklanmis karakterler arasinda hareket eden bir robotu uzaktan kumanda ettiginiz ve o robottan gelen kamera goruntusunu monitorunuzde gordugunuz bir oyunun gercek hayattan ayird edilmesi zor kivamda hazirlanmasi mumkun.

Ayni ortama Street Figther tarzi stylized veya Lego Builder's Journey tarzi yari stylized karakterlerin girmesiyle gercek ile fantezinin birbirine karistigi hikayeler hazirlamak icin gereken butun teknoloji insanligin elinin altinda.

Karakterlerin animasyonlari, tepkileri, mikrofon ile onlara soylediklerinize cevaplari ve ifadelerini kontrol eden yapay zekanin kalitesini iyi kotaran efsane bir oyunun cikmasi icin eksigimiz donanim, ara yazilim, yetenek veya butce degil, zaman.

Gercek ortamlara CGI karakterler ekleyen filmler gorduk. CGI ortamlara gercek karakterler ekleyen filmler gorduk. Vasat grafiklerle interaktif icerikler gorduk. RPG tarzi ana konusu olan ama genel hatlari sizin secimlerinizle sekillenebilen oyunlar gorduk. Procedurally generated haritalar ile teoride sonsuz icerik sunan oyunlar gorduk. Cumlenizi tamamlayip devami makale yazan, size sesle cevap veren, yazmaya calistiginiz programi tarif ettiginizde onu koda cevirecek kadar konuya hakim interaktif yapay zekalar gorduk. Hepsinin bir araya geldigini henuz gormedik.

Senaryolu ama dinamik hikaye icinde tamamen interaktif yapay zeka ile yonetilen, gorsel iceriginin tarzi teknik imkanlarla sinirlanmamis, daha once sadece hayal edilmesi mumkun olan ama benzeri gorulmemis icerik. Eskiden sadece hayaldi. Artik imkan dahilinde.

Tasarimina son 2-3 yilda UE4 ile baslanip yakin zamanda UE5'e tasinmis, photogrammetry tabanli model/doku kutuphaneleri ile guncellenmis icerigin RTX 40x0 kullanan tasarimci makinelerinde son haline getirilmesi ile ilk orneklerinin 2024-2025 gibi piyasaya gelmesi mumkun olabilir. Omrumuz yeterse goruruz.

Gencler telefonuyla sehrin sesini kaydedip sample olarak muzigine remixlemekten, telefonun lidari ve kamerasiyla sehrin objelerini capture edip sanal gerceklik eserlerine remixlemeye terfi eder.

Bir sonraki nesilde bu goruntuyu input olarak alip output olarak verecegi gercege ozdes goruntuyu hazirlayacak sekilde sanal ve gercek goruntulerle egitilmis neural network'ler de gercek zamanli calisacagi icin ayni icerik son esigi de asar. Gozun limitlerinin algilayabilecegi testleri gecebilecek VR setleri icin gerekli lazer teknolojisi de son kullaniciya ulasabilir hale geldigine gorsel icerikte gercekle sanal arasindaki cizgi tamamen kaybolur.

Gozun gordugune beyin inaniyorsa, "gecen gun oradaydik, soyle olmustu" diye hafizaya yaziliyorsa, olasi senaryolar arasinda degerlendirilmesi icin gecmiste gorulenler klasorune ekleniyorsa, bu icerikte yasanan deneyim yarinin kararlarina yon verir.

Tamagotchi'nin Pixar sevimliliginde hazirlanmis halini Pokemon Go gibi telefonuyla gercek mekanda yakalayip, AR ile etrafinda gorup, VR ile dizine oturtup, ekranda cama cikarak karsisina gecip, telefonunda gezdiren cocugumuzun kulagina o Tamagotchi'nin fisildayacagi mesajin "istersen sen de ibine olabilirsin" olmasindan endise ile "din, dovlet, dabanca" olmasina karar vereceksek o da bu donemde sekilleniyor.

Gecis donemi. Farkli gercekliklerin wave function'lari collapse ediyor.

Belli bir icerige abone olarak oyumu o gelecekten yana kullaniyorum.

Sanat bu.

 

Iste bunlar hep illuminati.

On 11/15/2021 at 10:55 AM, epi said:

VR’da DLSS’in benim gordugum ilk benchmark’lari:

https://babeltechreviews.com/myst-2021-vr-performance-review-featuring-dlss/?amp

  • UE5’teki micro polygon (nanite) yaklasimini hizlandiracak bir donanim ile gelecek bir 48GB 5nm nvidia kartinda oyun icerik verisi hafizaya sigdigi surece sonsuz geometri ve tekrar etmeyen dokular ile dunyalar hazirlanabilecek.
  • O pixel'e etkisi acisindan onemine gore hangi isik kaynaklarinin o pixelin rengine etkisinin hesaplandigi bir "importance sampling" yaklasimi ile sonsuz isik kaynagi ile dinamik isiklandirilmasi mumkun olacak.
  • DLSS ile bu performansli cizilebilecek.
  • Bu icerik photogrammetry ve lidar ile gercek dunyadan alinabilecek.
  • Cayir cimen vs AI ile cok daha hizli cizilebilecek zira sonucun bire bir olmamasi kimsenin umrunda degil.
  • Ilk goruntu cizildikten sonra Intel’in ornegini sundugu post process AI katmani ile “bu goruntu gercek hayattan olsaydi nasil olurdu” cilasi cekildiginde gercek hayattan ayird etmesi zor goruntu elde edilecek. Bu ornekte AI gercek hayattan cekilen videolarla egitiliyor. Driver'da gomulu gelmesi, oyunda gomulu gelmesi veya third party yazilim olarak satilmasi mumkun. Oyunda gomulu gelirse oyun icin scan edilen objelerin ve kisilerin videolari ve oyundaki 3d asset'lerle egitilip "bu cizdigimiz goruntu aslinda buna denk geliyor" diye ogretilerek cok ince ayar cekilebilir.
  • Ekranda cizilen goruntuyu foveated rendering ile VR’da hizli cizmek mumkun olacak, gozun o an odaklanmadigi yerler nispeten dusuk cozunurlukte cizilecek. Boylece flat screen'de duzgun performansli calisan icerigin VR'da da duzgun performansli calismasi mumkun olabilecek.
  • Reprojection’i headset’te yaparak bu goruntuyu 480hz gibi hizlarda gostermek mumkun olacak. Derinlik bilgisi de kullanilarak akilli sekilde yapildigi icin TV'de gordugumuz interpolation kusurlari olmayacak.
  • Uncanny valley problemi olmamasi icin robotlar ve yaratiklar, zombiler, yuzu maskeli askerler gibi icerik tasarimi odakli cozumlere zaten aliskiniz.

Saka maka goruntu kalitesinde Matrix’in yakinlarina geliyoruz.

Bunlar simdiye kadar herkese acik sekilde olarak gorduklerimiz, lab'da oldugu icin haberimiz bile olmayan ve teoride mumkun olsa da pratige gecmesi belirsiz olan teknikler degil. Mesela iki goz icin ayri goruntu cizmek yerine her iki kareden birini sag goz, birini sol goz acisindan cizip aradaki eksik kareleri AI ile hesaplayan (elinde hem bir onceki karenin bilgisi var, hem de o anki karenin farkli perspektiften goruntusunun bilgisi var) bir yaklasim gibi henuz gormedigimiz teknikleri ben dusunebiliyorsam bu adamlar da dusunup denerler herhalde. Yani bu yazdigimin da ustune cikilabilir, bunlar sadece bizim gorup bildiklerimiz.

Tabi icerigin donanimi yakalamasi vakit alabilir.

 

On 6/8/2022 at 1:23 PM, epi said:

https://www.youtube.com/watch?v=K3A-KQSz6z8

The Making of ‘The Matrix Awakens’

 

Gorsel kalitede Matrix'in kenarindayiz.

  • Bilgisayarlar oda boyutundan masaustune, sonra cebe geldi. Simdi superbilgisayarlar oda boyutundan masaustune, sonra cebe geliyor.
  • 10 yil sonra UE5 grafikleri basit gelecek (ozellikle karakterler).
  • 20 yil icinde mobil cihazlarda bile sanal ile gercegi ayirmak zor olacak.


https://www.youtube.com/watch?v=yg7Vk4b0Ook

3DMark 2001 Demo

 

1. Uretim teknolojisi

  • 15nm'den 13nm'e gecmek de 2nm degisim. 5nm'den 3nm'e gecmek de 2nm degisim. 
  • Ama biri %14 kuculme, digeri %40 kuculme.
  • 3 boyutlu dusunuyorsak kabaca biri %35 kuculme, digeri %79 kuculme.

2. Ara baglanti teknolojisi

AMD / Intel / nvidia / Apple... islemci mimarileri kadar interconnect teknoloji uzerine de deli gibi calisiyor. Paralellestirilebilen her is icin "tek islemciye 600W verip iki gidim daha performans cikar" demek yerine "150W'da etkin calisan 4 islemciyi tek pakede sigdir" modeline geciliyor. Gerekirse 3D hafiza kati cikip bant gensligi arttiriliyor.

3. Baglanti teknolojileri

Wifi 6E/7, 5G falan derken dusuk gecikmeli ve yuksek bant genislikli veri transferi ile agir islemlerin veri merkezinde yapilmasi, oradan cekilen ham verinin islenerek son haline lokal olarak getirilmesi mumkun hale geliyor.

4. Oyun teknolojileri

Unreal Engine 5 gibi teknolojilerle filmde kullanilan assetlerin oyunda da kullanilmasi, film cekimi sirasinda oyun motoruyla yonetmenin sonucu gercek zamanli gormesi, Hollywood butcesiyle hazirlanan icerigin bu sekilde oyunlara yansimasi mumkun oluyor.

5. AI teknolojileri

Ciddi miktarda paralellestirilebiliyorlar ve "magic" isler cikarabiliyorlar. Brute force ile elde edilemeyen kaliteyi, daha once sadece hayal edilebilen seyleri yapabilir hale geliyorlar. Oyun kalitesinde goruntuyu alip gercek hayattan ayirmasi zor hale getirmeleri mumkun ve bunu gercek zamanli yapabilirler.

 

On 12/3/2018 at 0:16 PM, epi said:

 

On 1/18/2022 at 5:54 PM, epi said:

Unreal Engine Metahuman, gercek zamanli motion capture:
https://www.youtube.com/watch?v=uPpYi9ozsJ8

 

Ablayi suraya alalim:

https://www.youtube.com/watch?v=2i8HenF-zMk

 

Onu su sehrin kosesine koyalim:

https://www.youtube.com/watch?v=WU0gvPcc3jQ

 

Evin ici de soyle olsun:

https://www.youtube.com/watch?v=2Yc7w-PJ-Jo

 

Veya boyle:

https://www.youtube.com/watch?v=pnSSYib795s

 

Motion controller sayesinde kamera hareketi de son videodaki gibi olsun. Isik, kamera, motor...

Kamera sehrin tepesinden yavas yavas sahile iner, sahilde eve girer. icerisi arch viz dosenmistir, evde bize sirti donuk olan hanim kameraya doner, yuz ifadesi gercektir, ses ASMR...

 

Only fans VR.


Tensor core'lari duyurduklari gunden beri kac yildir bekliyoruz bunlari:

 

On 8/18/2018 at 2:39 PM, epi said:

Nvidia dikkat cekici oldugu icin simdilik Ray Tracing performansini on plana cikartiyor ama deep learning yapay zeka islemleri icin Quadro serisinde mevcut olan Tensor Core'lar Geforce serisinde de sabit kalacaksa bunlari kullanan yeni nesil performans optimizasyonu teknikleri ve grafik duzeltme teknikleri kendinden cok soz ettirecektir.

 

Bu cekirdekler goruntunun neresinin daha cok cozunurluge/detaya ihtiyac duydugunun analizini arka planda yapip ona gore grafik cekirdeklerini drive eden bir yapay zeka islemcisi olarak kullanilabilirse cok ilginc olur. Cozunurluk, supersampling ve antialiasing kavramlari biraz bulaniklasir, bu tarz optimizasyon yapmayan bir kartla 4K'da aldigin goruntu bu kartin 4K'da alacagin goruntuden farkli olur. Haliyle kalite artisi icin mi yoksa performans artisi icin mi kullanilacagi biraz da nvidia'nin insafina kalir. Isterse bu kartlari satmak icin "4K'da 144hz" diye pazarlayacagi, goze cok batmayan yerlerin dusuk kalitede cizildigi performans modu olarak kullanir, isterse bir sonraki nesil kartlar cikardiginda "yeni algoritmamizla 4K'da 16K kalitesi" diye pazarlayacagi, kalite modu ile eski kartlari yavaslatir.

 

Sac, yesillik, akiskan, animasyon, parcacik efektleri vs ile kullanilabilir. Doku filtreleme, post processing efektleri vs ile kullanilabilir. Goruntunun procedural generation ile detaylandirilmasi veya cesitlendirilmesi icin kullanilabilir. "Obama'nin agzini konusmaya uydurduk", "su videodaki oyuncunun yuzunu su unlu ile degistirdik" tarzi deep learning temelli video efektlerinin uc boyutlularini gorebiliriz. Oyun motorunda "insan derisi", "odun", "metal" diye etiketlenmis yuzeylerde uygun surface shader'larla diffuse dokusu, roughness dokusu vs uygulaniyor, bunlarin kalitesi hep hafiza miktari ile limitli, oyun medyasinin boyutu ile limitli, sikistirma sonucu kayipli vs oluyor. Arkada calisan bir yapay zekanin sikistirma hatalarini duzeltmek icin "denoising" amacli kullanilmasi, insan derisine uygun detay uygulamak icin "noising" amacli kullanilmasi gibi gorsel kaliteye ve cesitlilige buyuk katki saglayacak sekillerde kullanilabilir.

 

Programcinin kontrolune verildiginde bunlar arasinda bir sepet olusturup "oyuncudan ray trace edip objenin orasi gozukuyor mu diye baktim, mesafesine ve acisina gore bu objelerin isiklandirma/doku/filtreleme kalitesini sectim, en onemli bolumleri sinema kalitesinde cizip isiklandirdim" gibi dibine kadar optimize edilmis oyun motorlari mumkun olacaktir. Mesela bu Unreal Star Wars Ray Tracing demosunda duvarlar normal oyunlar gibi, karakterler ray tracing ile isiklandirilmisti. Bu yuk paylasiminin real-time goruntu analizi ile dagitilmasi ve ekranda en onemli seyin en yuksek kalitede cizildigi bir cozum olusturulmasi mumkun olabilir. Boyle bir yaklasimin eye tracking ile VR'da kullanilmasi harika olur.

 

Ray Tracing ve Tensor cekirdekleri sadece Quadro'larda bu sekilde kalacaksa durum farkli tabi. Ama bu haliyle Geforce'lara geliyorsa cok buyuk bir mimari degisiklik. Ilk Geforce256'larin piyasaya gelisi gibi neredeyse. Tabi ilk Geforce256'larla gelen teknolojilerin standartlasmasi nasil vakit aldiysa, beklenen oyunlar piyasaya ciktiginda Geforce256 nasil eski ve yavas kaldiysa aynisi burada da beklenebilir ama yine de mimari degisiklik heyecan verici.

 

On 8/19/2018 at 6:35 PM, epi said:

Guncel oyunlari son kalitede oynatir, tech demo ve bunlari tek tuk ekleyen teknoloji partneri oyunlarini gelecekten teaser tadinda 30fps calistirir.

 

Yalniz ortada ilginc bir sey var bu sefer. AI ile grafik motorunun surulmesi daha once gormedigimiz tekniklerin driver seviyesinde eklenmesini mumkun kilabilir.

 

Ornek veriyorum: Bu neural network / AI donanimi, "su durumda verebilecegin en iyi sonuc bu kardesim" diye mesela 16K'da 32X AA ile hazirlanmis goruntu kullanilarak train edildiginde, girdi olarak 2K 2X AA goruntuyu alip, bunu otekine en cok benzetmek icin nasil isleyebilirsin sorusu soruldugunda, referans goruntu ile dandik goruntu arasindaki farki matematik olarak en aza indirecek post processing islemlerini kendisi tespit ettiginde, yani algoritmasi elle yazilmis bir AA degil, "buradan oraya nasil gideriz, sen bul a.k." seklinde AI'a birakilmis bir AA modeli belirlendiginde, bu AA modeli gercek zamanli olarak benim kullandigim oyunun uzerinde calisacaksa, oyunlarin bir sey desteklemesi gerekmiyor, driver her guncellendiginde ayni donanimla daha yuksek goruntu kalitesi veren bir modele gecebiliriz.

 

Ray tracing'i yuksek kalite benzeri yapmak icin bu donanimin kullandigi yontem asagi yukari bu. Yuksek seviyede ayarlarla elde edilen goruntu ile train edilen AI dusuk seviyede ayarlarla elde edilen goruntuyu isleyerek kaliteli sonuca ulasiyor. Ayni mantigi AA icin, doku filtreleme icin, daha iyi animasyon icin kullanabileceklerse burada ciddi bir mimari degisiklik var.

 

Hatta nvidia'nin 30 fps videoyu 240 fps'ye cekmek gibi isler icin de ayni neural network yaklasimini kullandigi dusunulurse bu gidisle ara kareleri post'ta generate ederek sabit 144hz gibi fantezilere de kosabilirler. VR'da sabit 90hz elde edilemediginde kullanilan Asynchronous Spacewarp/Timewarp gibi tekniklerin mantiginda bir seyleri 2D ekranlarda da gorebiliriz.

 

Nvidia bu sefer iki neslin arasini uzun tuttu. Arada bu donanim mimarisi ile elde edilebilecek teknikler icin ne kadar arge yaptiklarini, onumuze neler gelecegini merak ediyorum.

 

On 8/20/2018 at 5:53 PM, epi said:

Ray tracing'in bosverin. Bu videonun hepsini izlemeye kimsenin vakti olmaz herhalde ama hizla baktigimda tam da benim bekledigim tekniklerden soz ediyorlar. Donanimdan hizlandirilmis gercek zamanli yapay zeka destegi ile goruntu kalitesinin yukseltilmesi veya benzer goruntu kalitesinin yuksek performansla elde edilmesi acisindan bu mimari cok buyuk bir adim. Geforce256'dan bu yana en buyuk mimari degisiklikleri bir programlanabilir shader'larin eklenmesi, bir de bu bence.

 

On 8/21/2018 at 1:44 PM, epi said:

Bu asamada ray tracing on plana cikiyor cunku butun endustri bunun gercek zamanli olarak yapilabilecegi gunu bekliyordu, haliyle ilgi cekici. Ama bu kartlarin mimarisi yeni nesil kalite/performans tekniklerinin driver guncellemeleri ile eklenebilmesine imkan verecegi icin de onemli.

 

Nvidia driver seviyesinde yerlestirirse "bunlari oyunlarin kullanmasi vakit alir" diye bir sikinti da yok:

 

On 8/20/2018 at 9:20 PM, epi said:

Yalniz bu programlanabilir kismi nvidia kendisi programliyor. Ekranda ne oldugunun analizini yapip onu nasil daha iyi cizerim diye bu veriyi gercek zamanli isleyecek donanim kartta mevcut, bunu nasil yapacagini ogretmek icin de superbilgisayarlarda islenen veri ile sekillenen yapay zeka karta suruluyor. Yani kendi supercomputer'larinda neural network'u bu donanimda calisacak sekilde egitip bu guncellemeyi surucuye aktardiklarinda yeni bir AA/supersampling/filtreleme/performans iyilestirme modunu karta ekleyebildikleri icin bu teknikleri oyun ureticisinin desteklemesi gerekmeyecektir.

 

"Nvidia veri merkezine, endustriyele kayiyor, oyunlari az onemseyecekler" diye bir sey de yok:

On 11/22/2018 at 11:16 AM, epi said:

Bu mimaride atilan bir adim da nvidia’nin oyun disindaki sektorlerde kullandigi yapay zeka birikimini buraya getirmesi, burada arge yapilmasinin o sektorlere arti donus saglama potansiyeli doguruyor.

Yani nvidia’nin attigi adimlar basarili olursa uzun donemde onemli adimlar aslinda.

 

On 11/1/2020 at 9:03 AM, epi said:

Universitelerle bu tarz calismalarda hep nvidia’yi goruyoruz:

https://youtu.be/ooZ9rUYOFI4

Cok daha yuksek islem gucu gerektirecek hesaplari daha hizli ve daha yuksek kalitede yapan machine learning algoritmalari bu cagin buyusu. Bu tensor core’lara sadece DLSS gozuyle bakmayin, burada ciddi bir yeniden programlanabilirlik yatiyor.

 

Yeni kartlar ciktiktan sonra bi demosunu gorsek de rahatlasam.

 

Son bir not: nvidia'nin veri merkezleri icin hazirladigi Grace islemcisi ARM + GPU, hizli arayuz baglantisi ile Apple'in M1 Ultra'si gibi. Bu 40x0 nesliyle guncellenmis halini daha gormedik. nvidia'nin oldugu PC'de Intel veya AMD'nin olmamasi icin tek gereken sey Microsoft'un su ARM destegini duzgun kotarmasi. O yonde girisimleri yavas ama adim adim ilerliyor, 2023'te de yeni gelismeler olacak gibi.

epi tarafından düzenlendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Hadi hayırlı olsun:

https://videocardz.com/newz/nvidia-ceo-jensen-huang-to-keynote-at-gtc-2022-on-september-20

Tabi GTC olduğu için yalnızca mimariyi tanıtıp profesyonel tarafa yönelik bir sunum da olabilir ama zaten aylar önce Hopper mimarisini tanıtmışlardı. Şimdi de Ada Lovelace bekleniyor.

Edit: Zaten şu açıklama varmış Nvidia sayfasında: Primary Topic: AI Strategy for Business Leaders

Geforce'a dair hiçbir şey beklemeyelim.

https://www.nvidia.com/gtc/session-catalog/?tab.catalogallsessionstab=16566177511100015Kus#/session/1657326563846001zRzJ

mamad tarafından düzenlendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

1.Arka planda o pixel’i aydinlatan isiklardan hangisinin etkisinin onemli oldugunu hesaplayip gereksiz olanlari elimine ederek yuzlerce isik olan ortami orijinaline yakin goruntude ve hizli, gercek zamanli cizecek algoritmalari var. bunlari suruculere entegre ederler. UE5 nanite tarzi gercek zamanli level of detail yonetimiyle film kalitesi geometri kullanmak mumkun olur. Film kalitesi detay ve isiklandirma iceren ortamlari aktarip oyunda kullanmak icin icerik hazirlayanin optimizasyon yapacagim diye aylarini harcamasi gerekmez, sen Star Wars/Marvel dizisi icin zaten hazirladigin ortami aktar, biz gercek zamanli cizeriz seviyesine gelir.

2. Fizikler ve onlara bagli animasyonlar, sac ve kiyafet gibi simulasyon iceren hesaplamalar, karakterin hareketlerini dogal yapacak animasyon sistemi, kaslarin hareketlerini ve deriye yansimasinin dogal olmasi… Bunlarin hepsi yapay zeka. O konuda da bir sov yaparlarsa saglam olur.

3. Son olarak “sen kalite ayarlarini sktret… istedigin frame rate’i sec, biz arka planda dlss’in internal cozunurlugunden sentetik kare uretimine kadar her seyi kullanip o kare hizini sabit tutacak sekilde maksimum kaliteyi otomatik ayarlariz” seviyesine gelirlerse sahane olur.

Bunlarin ucu de yapay zeka odakli aslinda. Tensor core’larda bir kac nesildir nvidia donanim tarafini gelistirdi. Bu kartlara driver yoluyla yeniden programlanabilirlik sundugu icin yazilim tatafindaki her gelismenin buyuk potansiyeli var. Yazilim gelistirmek konusunda da nvidia zaten basarili.

Bu neslin ilginc bir durumu olabilir. Multi-chip tasarimlara gecmeden cekirdek tasarimin rafine edildigi ve 4-5nm’e gecildigi icin oncekilerden geliskin , fakat hala tek chip ile kaba kuvvet oldugu icin sonrakilerden farkli, “ya o 4090Ti bi acayipti” diye anilacak kartlarin oldugu bir nesil olabilir. Tek chip tasarimin kendine gore avantajlari yoksa MCM’ler geldiginde hizla eskimesi de mumkun tabi ama bir devrin zirvesi olarak anabiliriz.

AMD ve Intel’den gelecek rekabete gore ust seviyelere (4090, Ti modelleri vs.) son sekli verip piyasaya vereceklerse ilk gorecegimiz kartlar her zamanki gibi biraz kirpik kalabilir, nvidia bu neslin teknik gelismelerini sergileyip zirve performansi sonraya birakabilir.

epi tarafından düzenlendi
rammstein beğendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Yorum yazmak için üye olun veya giriş yapın

Yorum yazmak için üye olmanız lazım

Üye ol

Üye olun ve sitemizin tüm avantajlarından yararlanın!


Yeni bir hesap oluştur

Giriş yap

Zaten üyemiz misin? O halde giriş yap


Hemen giriş yap
3 3

  • Bu sayfadaki üyeler   0 üye

    Şu an bu sayfayı görüntüleyen bir üye yok