Nvidia GeForce RTX40 Serisi - Hopper/Ada Lovelace (2022-2023)
3 3

953 posts in this topic

Son birkaç dönemde Nvidia yeni mimarilerinin ismini eskisi gibi kesin olarak son kullanıcılara duyurmuyor. Ama söylenti olarak gelen iki mimari de çıkmıştı. Şimdi ise 2 yıldır falan söylentisi olan Hopper yerine Ada Lovelace adı verilen bir mimari ile geleceği söyleniyor. Ama Hopper da daha sonra gelecekmiş. Ampere/Turing durumu yani.

https://videocardz.com/newz/nvidia-rumored-to-introduce-gpu-architecture-named-after-ada-lovelace

Hatta Ada Lovelace mimarili ilk gpuya dair söylentiler bile gelmeye başladı.

https://videocardz.com/newz/nvidia-ad102-lovelace-gpu-rumored-to-offer-up-to-18432-cuda-cores

Muhtemelen 2021'de gelmez ama bu yıl haberleri baya bir gelir gibi. Hazırda başlığı bulunsun.:mrgreen:

Edited by mamad
rammstein likes this

Share this post


Link to post
Share on other sites

Nvidia’nin 2020 ilk ceyreginde piyasaya sundugu server GPU’su A100 TSMC’de uretilmisti. Once onun devamini goruruz herhalde. Yuksek uretim teknolojisindeki pahali limitli kapasite ile bir sonraki nesil mimarinin pahali pro varyantlari.

Share this post


Link to post
Share on other sites

Rtx rtx diye bağırıyorlar yıllardır kart alınca merak ettim şimdi baktım hangi oyunlarda var toplasan 30 tane falan oyun vardı listede ne kadar boş gündemler bunlar ya..

Edited by Squall

Share this post


Link to post
Share on other sites

Grafik kalitesi arttikca fiziklerdeki kusurlar ve animasyona etkileri goze daha cok batiyor. Cizgi film karakteri gibi gozuken bir npc tuhaf hareket edince sorun olmuyor ama gercekci gozuken npc tuhaf hareket edince rahatsiz edici oluyor.

Yine cizgi film tipi karakterde sac da mesela d.Va gibi kotarilinca gayet guzel gidiyor ama photorealistic karakter olsun derseniz o saclari tel tel simule etmek gerekiyor. Sac miktarini ve kivrimlarini kisinca dandik gozukuyor, acinca feci performans yiyor.

Ayni sey kiyafetler icin de gecerli. Son derece gercekci bir modelin gomlegi kutuk gibi hareket edince goze batiyor.

Sac ve kumas simulasyonunu GPU’ya yaptirabiliyorlar ama performansi etkiliyor. Fizikler icin de Physx falan gibi cozumlerle GPU’ya ornegin akiskanlari hesaplatmak mumkun ama herseyi GPU’ya aktaramiyorlar. Orada CPU performansi onem kazaniyor. Hatta single core CPU performansi hala cok etkili.

Simdiye kadar “yemisim CPU’yu, yenilerim GPU’yu” diye idare etmek mumkun oldu ama Cyberpunk gibi orneklerde isigin yuzeylerden yansimasina kadar grafiklerin iyi yapildigini ama fizikler ve onlara bagli animasyonlarin mecburen ucuz yontemlerle kotarildigini goruyoruz, goze daha cok batiyor. Gercekciligin daha artmasini istersek ya (1) daha yuksek single core CPU performansi, veya (2) multicore’a olceklenmekte daha basarili fizik motorlari, ya da (3) GPU’da hizlandirilan fiziklerin kapsaminin genislemesi sart.

Belki nvidia’nin bir sonraki mimarisinde bu yonde de gelismeler goruruz. Eger tensor core’lari bu isler icin kullanan bir SDK ile gelirlerse sonuclar etkileyici olabilir.

Yeni mimari, yeni teknolojinin kullanilmasi zaman aliyor. Oyun oynayan nufusun %1-3’inde ust seviye kart var. o kartlarin kaldirabildigi ozellikleri hedefleyen 30 oyun olmasi basaridir. Sizi bilmem ama ben 30 oyun oynamiyorum, birkac baba oyun oynuyorum, onlar da piyasanin biraz otesinde bir teknoloji sunabiliyorsa verdigim paraya deger diyorum. Ama kartlarin performansi hala darbogaz.

En baba kartin 10 kati hizlisini, 100 kati hizlisini yapsalar o performansi kullanacak oyun yapmak mumkun. Chiplet mantigi ile oraya gelirsek guzel olacak cunku uretim maliyetini de dusuren, ayni fiyata daha cok transistoru bir araya getiren bir yaklasim. Ama isinma ve gecikme acisindan GPU’lara ne kadar uygulanabilir oldugu belirsiz.

Neural network mantigiyla isleyen algoritmalarla normalde 10 kat, 100 kat islem gucu gerektiren islerin benzer kalitede kotarilabildigini bilimsel makalelerde goruyoruz. “Onceki yontem 25ms, bu yontem 2ms, kalite de daha iyi” seklinde neticelere ulasmalari mumkun oluyor.

Burada nvidia tensor donanimi yerine shader mi ekleseydi denildi. Ama rakibe baktigimizda transistor butcesini gomulu hafizaya harcayarak nvidia’yi anca yakaladigini goruyoruz. Yani shader birimleri daha cok degil, tensor birimleri eksik, ray tracing performansi yari yariya. Big Navi duyurulmadan once “Nvidia DLSS ile iyi is yapti ama o tensor core’lar yerine shader uniteleri ekleyerek ayni butceyi kullanan bir Amd GPU’su daha verimli bir tercih olabilir” diyenin bu mantikla Amd icin “ne o islem unitesini, ne otekini koydular, yeni nesil GDDR6X desteklemek yerine o transistor butcesini hafizaya heba ettiler“ demesi gerekir.

Neticede nvidia hep sonraki mimarilerin roadmap’ini de dusunerek GPU tasarliyor. Ben yeni nesilde tensor/AI’dan daha da faydalanmalarini bekliyorum. Bu muhtemelen yuksek kalitede grafikleri daha yuksek performansla kotarmak icin kullanilmaya devam eder. Ama bir sonraki mimaride fiziklere daha da yukleneceklerse onun ilk orneklerini de gorebiliriz.

rammstein likes this

Share this post


Link to post
Share on other sites

Nvidia physx'i aldığında oyun teknolojilerinde geleceğin fizik efektlerinde olduğu düşünülüyordu. Tabi o zaman unified shader mimariler falan da işin içindeydi. Sonrasında iyice gpu cpunun yerini alır mı tartışmaları oldu. Çünkü fermi iyice uçurmuştu işi. Ama bugün bunların pek geçerliliği kalmadı. Fizikler konusunda hala yenilik bekleniyor. Ancak bir türlü yeni bir şey sunulmadı. Beklemeye devam ediyoruz. Tensor core işe yarar mı? Neden olmasın. Cuda üzerinden yapıldığında shaderlara yükleniyordu. Şimdi tensor corelarla bu iş kotarılabilir. Ama bunun için bir standart sunulmalı, o da directx'te olmalı. Şuan için böyle bir şey gelir mi? Zor gibi.

Share this post


Link to post
Share on other sites

UE5'te Lumen ile global illumination mumkun. 

Hatirlarsaniz RTX'te golgelerin biraz geriden gelmesinin yarattigi gecikme hissinin benim icin biraz rahatsiz edici oldugunu soylemistim. Onceki karelerden gelen goruntudeki bilgiyi kullanarak yeni kareyi cizdigi icin isik kipirdadiginda veya yeni bir isik actiginizda veya isigin onunu kapatan bir obje hareket ettiginde vs golgeler adim adim hesaplaniyor. Gecikmeli bir goruntu oluyor.

Bu durum Lumen'de cok daha belirgin. Bunu ilk UE5 videosunu gordugumuzde de soylemistim.

RTX donanim tabanli bir cozum oldugu icin RT unite sayisi arttikca bu gecikme azalacak. Lumen isi yazilim tabanli cozdugu icin shader unitelerinin artmasi lazim.

Shader uniteleri cip tasariminda buyuk yer kapliyor. Onu ornegin bir nesilde %50'den cok arttirmak zor. RT uniteleri ise az yer kapliyor. %166 arttirmak bile mumkun.

Eger nvidia kendi cozumunun yazilimsal cozumlerden daha ileri oldugunu vurgulamak isterse bir sonraki donanim neslinde RT birimlerinin miktarini iki katina cikartabilir. Tensorlar yine ayni kalsa ve yine ayni miktarda veri islese bile o veriyi son 10 kareden degil 5 kareden toplarlar cunku RT birimleri eskiden 10 karede isleyebildigi veriyi simdi 5 karede isler.

Bu sekilde donanim hizlandikca donanim tabanli GI daha da akici olacak. Isiklandirmanin daha dinamik oldugu sahnelerde farkin daha da belirgin olacagini tahmin ediyorum. 

Lumen tabi ki iyi oldu. Cunku Lumen gibi cozumler olmasa AMD tabanli konsollarda donanimsal RT hizlandirma limitli oldugu icin programcilar gercek zamanli GI uzerine kurulu oyun tasarimlarindan uzak durabilirlerdi. Simdi konsolda golge biraz geriden hareket eder, PC'de daha iyi akar ama ikisinde de ayni gercek zamanli isiklandirma mantigina dayali oynanis tasarlanabilir.

Ayni sekilde DLSS ile goruntunun netligi PC'de daha yuksek olur, konsolda daha dusuk ic cozunurluk ve temporal AA cozumleriyle belki biraz daha bulanik olur ama ikisinde de ayni icerik, ayni kalite butcesi hedeflenebilir.

Nanite'in en cok sevdigim yani su: UE4'te LOD (level of detail) gecisleri arasinda geometrinin pop-in yapmasi, yani az detayli modelden cok detayli modele gecerken plop diye seklin degismesi 20 yildir uyuz oldugum bir seydi. Nanite videolarinda bunu belirgin bir sekilde gormedim. Videolarda kamera agir hareket ediyor, hizli hareket oldugunda da blur bol ama simdiye kadar edindigim izlenim o isi iyi kotarmislar. 

Tabi herkes "sahneye 500 milyon polygon koyduk" videolari yapmaya basladi ama ayni modeli kopyalayip duruyorlar. Onun hafizaya sigmasi icin gerekli optimizasyonlar var arka planda. Gercek uygulamada gordugumuzde ekranda gorebilecegimiz detay seviyesi hafizanin ve aktarim hizinin sinirlarina dayanacak. Farkli sistemleri o yuk altinda gormek lazim. Her sistemin kendine gore bir hafiza hizi, hafiza erisim hizi ve hafiza miktari darbogazi var.

Gelecek nesil nvidia kartlarindan beklentim
1. Daha ileri uretim teknolojisine gecilmesi ve genel performansin bir miktar artmasi.
2. Ozellikle daha cok RT birimine sahip olmalari. UE5 videolari kalitesinde geometrinin RTX Direct Illumination kullanilarak bir cok isik kaynaginin bir arada islenmesi ile Metro Exodus EE kalitesinde isiklandirilmasi. RT birimleri arttigi icin arada fizir ficir goruntunun veya golgelerde gecikmenin daha az gorulmesi. 
3. Ya hafiza miktarinin daha cok olmasi, ya da DirectStorage, resizeable bar vb. tekniklerin iyice oturmasi ve akilli hale gelmesi.

Bir de DLSS ve su tarz yapay zeka tabanli goruntu isleme yontemleri gelisir. O gelismelerin bir kismi eski donanima da yansiyabilir.

Bunlar olduktan sonra rekabet zorlamadikca multi-chip module veya gomulu hafiza gibi fanteziler olmasa da olur. 

7nm'a gecmenin getirdigi oyun alanini kullanarak 3080 Ti cekirdeginin temelini (6'da birini) alip, sadece RT birimlerini iki katina cikartip, 6 blok yerine 8 blok olarak insa ettiklerinde (hafiza kontrolcusu o blokta gomulu), yanina hafiza olarak 12 GB yerine 16 GB koyduklarinda, hafiza bandi da shader performansi da %33 artmis oluyor. RT performansi %166 artmis oluyor (eskiden 100'se 266 oluyor). Mimariye yapacaklari ufak tefek iyilestirmelerle birlikte bu tarz 16GB bir kart canavar gibi olur. Ram sayisi 16 olacagi icin board tasariminin da ona gore degismesi gerekir. Veya ram sayisi 8 (x2GB), veriyolu 2 kat genis olabilir ama o zaman GPU'da daha cok degisiklik gerekir. Hangisinin uretimi daha ekonomikse onu yapip gecebilirler.

Bunu "boyle bir kart gelecek" diye bir tahmin olarak yazmiyorum. Sadece bu kadari bile yapilsa, mimaride neredeyse hic degisiklik yapmadan RT performansinin x2.66 olmasi mumkun diyorum. Ayni potansiyel yazilimsal cozumlerde mevcut degil. O yuzden Lumen beni Nanite kadar heyecanlandirmiyor. 

Nanite, Lumen ve Metahuman art arda gosterip gazi verdiler. yeni nesilden beklentiyi arttirdilar. Eski nesiller gibi olursa butun bunlarin bir araya geldigi ve demolardaki kalitenin yakalanip gecildigi ornekleri anca neslin sonuna dogru goruruz. PS6'lerde CGI film gibi gercek zamanli kalite beklenebilir. O zamana kadar beklentiyi cok yuksek tutmamak lazim. Metahuman videolarindaki saclarin simulasyonunun yuku, cok isik kaynaginin yuku ve geometrinin yukunu bir arada gormedik. UE5 demosunda bile karakterin saci supurge. Isik kaynagi tek. Yani o "artik tasariminin butce dusunmesi gerekmiyor" iddiasi falan bir yere kadar. Nanite falan hala beta'da, daha her mesh tipini desteklemiyor. Zamanla olacak.

Edited by epi

Share this post


Link to post
Share on other sites
8 hours ago, mamad said:

2022 sonu. O zamana kadarki butun uretim kapasitesini diger firmalar pesinen kapatmis herhalde :) 

Bu yil sonunda Intel'in big.LITTLE benzeri tasarim mantikli 12th Gen Alder Lake'i ve Windows 11 gurultu koparirken nvidia cephesinde hic bir sey olmamasi ilginc. Gerci GPU'larin bulunabilir hale gelmesi yeterli haber olur, fiyatlar da guzellesirse desktop icin yeter. Ama neredeyse desktop replacement performansindaki laptop'lar ince, hafif ve sessiz olma yolunda bu kadar ilerlemisken, bu Alder Lake ile Windows 11 pil omru konusunda da rekabetci hale gelecekken nvidia da uretim teknolojisi yenilendigi icin enerji ihtiyaci azalmis ve daha serin calisan bir notebook gpu serisi duyursa guzel olurdu.

O zamana kadar Intel'den yeni islemci ve MS'den yeni isletim sistemi gelmesinin saglam 3D performansli laptop isteyenler icin o kadar da anlami olmayacak. Zaten butun enerjiyi GPU cekiyor. Yine de hafif yukte pil omru ve sessizlik acisindan iyi tabi.

Share this post


Link to post
Share on other sites

TSMC 5nm haberleri DigiTimes gibi kaynaklarda da geciyor. Q3 2022 demisler, biz ona yil sonu diyelim. 3090 gibi serinin canavarini da lansmanda cikartirlarsa, iyilestirilmis mimari ve 5nm ile 4K120hz'i DLSS'le de olsa verebilen kartlar gormemiz lazim. Eye tracking ve foveated rendering ile VR'i da o seviyede calistirabilir.

Tensor core'lari yeterince arttirarak AI'a yuklenirlerse, DLSS gelisir, ray tracing gelisir. AI post processing ile goruntuyu daha gercekci hale getirecek kadar yapay zeka unitesi de icerirse Matrix diye satarlar artik. "Neural rendering" gibi terimleri daha cok duyar hale geliriz.

Ote yandan ARM'i satin almasina "hop" dediler. FTC (devlet kurumu) dava etti. Zaten 5 yilda 15 kat artmisti hissesi. Bu haberle bakalim nereye kadar dusecek derken millet yine alir da artmaya devam ederse yuh artik.

Share this post


Link to post
Share on other sites

4k+120hz işini dlss sayesinde üst seviye ampere'ler halledebildi diye biliyorum. Belki 120'yi tam tutturamaz da 90-100 fps olur. Artık baya gelişti o işler diye biliyorum. İşin içine ray tracing girince 120 fps işi yalan oluyor tabi.

Arm konusunda da Nvidia'nın dev olması ve tekel haline gelmesi söz konusu olduğu için çomak sokuluyor sanıyorum. Zaten bu saatten sonra izin vermeyecekler gibi görünüyor. Arm'ı almış olsa, muhtemelen 10 yıla kalmadan Apple'a kafa tutmaya başlarlardı.

Share this post


Link to post
Share on other sites

Nvidia'nın yeni serisi sonbahar aylarında çıkabilir gibisinden konuşulmaya başlandı. Amd tarafında hiç ses yok. Esas ilgi çekici olan ise Nvidia'nın TSMC'de üretim yaptıracak olması. 5nm TSMC üretimi gpular, Ampere'de göremediğimiz enerji verimliliği ve yüksek saat hızlarını sunabilir. Malum, güncel serilerde enerji verimliliği ve yüksek saat hızları 7nm TSMC üretimi olan Amd'nin Navi'lerinde görülmüştü. Nvidia artık 300w üzeri gpularla bu işin gitmeyeceğini anlamış olabilir. En son 3090ti için 450w falan diyorlar. Yok ebesinin nikahı...

Sözüm ona teknoloji gelişiyor ama güç tüketimi sürekli artıyor. Kartları soğutmak büyük sorun haline geliyor. 3090'lardaki o soğutucu nedir diye soran yok. Ben yıllardır donanımların insani boyutlarda olması gerektiğini, küçük ve az güç tüketen, az ısınan, kolay soğutulabilen, hafif ürünler olmaları gerektiği fikrini savunuyorum. Büyüklük fetişi arkadaşlara bir türlü anlatamadım bunu.

Edited by mamad
quad likes this

Share this post


Link to post
Share on other sites
6 saat önce, mamad said:

Nvidia'nın yeni serisi sonbahar aylarında çıkabilir gibisinden konuşulmaya başlandı. Amd tarafında hiç ses yok. Esas ilgi çekici olan ise Nvidia'nın TSMC'de üretim yaptıracak olması. 5nm TSMC üretimi gpular, Ampere'de göremediğimiz enerji verimliliği ve yüksek saat hızlarını sunabilir. Malum, güncel serilerde enerji verimliliği ve yüksek saat hızları 7nm TSMC üretimi olan Amd'nin Navi'lerinde görülmüştü. Nvidia artık 300w üzeri gpularla bu işin gitmeyeceğini anlamış olabilir. En son 3090ti için 450w falan diyorlar. Yok ebesinin nihakı...

Sözüm ona teknoloji gelişiyor ama güç tüketimi sürekli artıyor. Kartları soğutmak büyük sorun haline geliyor. 3090'lardaki o soğutucu nedir diye soran yok. Ben yıllardır donanımların insani boyutlarda olması gerektiğini, küçük ve az güç tüketen, az ısınan, kolay soğutulabilen, hafif ürünler olmaları gerektiği fikrini savunuyorum. Büyüklük fetişi arkadaşlara bir türlü anlatamadım bunu.

Katılıyorum son teknolojilerin pek bir avantajını göremedik. Steve Jobs aratıyor kendini.

Share this post


Link to post
Share on other sites

Yeni seri 5nm gelirse su aralar en pahali kartlari alip sebekeden hat cekerek besleyenler cok kufredecek. O aralar GPU mining karliligi da duser de piyasa ucuz ikinci ele bogulursa daha da kufredecekler. Bir de o parayi mining yaparim diye verdilerse renkleri de degisecek.

Tabi bunlarin hepsi farazi. Yil sonu gelip hala yeni kartlar bulunamiyor olabilir, hala GPU mining karli olabilir vs. Yoklukta ne yapsalar gidiyor.

Yalniz bu nesilde hala 8nm ile onde gidecegiz diye mimari optimizasyonlarin, DLSS gibi tekniklerin, sogutma tasarimlarinin falan dibine vurdular. Unreal Engine 5'i konsollarda sehir cizip raytrace edecek kadar gelistirdiler. 5nm'e gecip yine 3090 gibi abartili bir gpu yaparlarsa dunyayi render edecek.

Edited by epi

Share this post


Link to post
Share on other sites

AMD’cilerin gozu aydin. nvidia hack’lendi, DLSS kodundan bir sonraki mimarinin ozelliklerine kadar uzanabilecek bilgiler ortama dustu. Yavas yavas tasarimdan dogan avantajlarini kaptirabilir. Mevcut nesilde oldugu gibi, AMD daha ileri uretim teknolojisi de kullansa, daha cok bellek de gomse, tasarim avantajlariyla nvidia basbasa veya onde durumunu korumak zorlasabilir.

Share this post


Link to post
Share on other sites

Apple M1 Max chiplerde gomulu baglanti arayuzunu kullanarak iki tanesini bir araya getirip M1 Ultra chiplerini sundu. Ufak kasada 12th gen Intel + 3090’a kafa tutma iddiasinda.

Bunun quad seklinde pro’su gelirse piyasayi ezip gececek. Sonbaharda bu gelecekse nvidia’nin cevabi kartlar da 3090’lari katlama pesinde olabilir.

nvidia 7nm’e bile gecmeden, Samsung 8nm ile bu nesli goturdu. Apple 5nm’de.

nvidia’nin bu nesilde rafine ettigi sogutma, DLSS/RTX driver’lar, mimariye iyilestirmeler, yuksek guc gereksinimini karsilayan board tasarimi falan cepte. Bunun ustune uretim teknolojisi refresh’i ve mimariye ek iyilestirmelerle elde edilebilecek performans artisi ilginc olacak.

Hic bosuna onlar da 4-5nm’e gecer ve bu sekilde interconnect olabilen moduler bir yapiya gecer diye heveslenmiyorum. Rekabet zorlamadikca yapmazlar. Mimarisi kenarda hazir olsa da yapmazlar.

Fakat Intel/AMD’den boyle urunler gelip rekabet zorlarsa bir sonraki nesilde o tarz tasarimlar gorebiliriz. Tensor core miktari yeterince yuksek olursa onlarda Matrix seviyesi grafikler mumkun hale gelebilir.

VR da PlayStation’da bile eye tracking ile foveated rendering yaparak kalitede sicrama yasamanin esiginde. Dunya da .ombok zaten. Ailece VR’a tasiniriz.

Share this post


Link to post
Share on other sites

Nvidia'nın geleneksel olarak ilerleme şekline baktığımızda, ciddi farklılıklar sunduğu ya da ciddi işler planladığı büyük mimari değişikliklerde, özellikle de üretim teknolojisini de değiştiriyorsa sorun yaşadığını görürdük. Ardından gelen gpularlar da bunu düzelttiğini ve gerçekten güzel ürünler sunduğunu. Turing mimarisiyle enerji verimliliği konusunda geriye gitmişlerdi zaten. Daha doğrusu pek bir ilerleme sağlayamamışlardı, çünkü ciddi bir değişiklik vardı. Bir sonrakinde daha verimli gpularla gelirler diyorduk, ama o da Samsung'un 8nm üretimine ve rekabette güçlü durabilmek için aşırılıkları olan büyük gpulara kurban gitti sanıyorum. 3090ti'ı hala çıkaramadılar mesela.

Bu yıl sonuna doğru geleceği söylenen yeni nesil gpular ise TSMC'nin 5nm üretim bantlarından çıkacak deniyor. Normalde enerji verimliliğinin ciddi biçimde (Maxwell ya da Pascal gibi) artmasını beklerim şahsen. Çünkü TSMC üretimleri her zaman enerji verimliliğinde iyi işler çıkarır ve yongalar yüksek saat hızlarına ulaşabilir (bkz: Amd'nin 7nm gpuları). Ama gelen haberler Nvidia'nın yeni gpularının aşırı güç tükettiğini söylüyor. Enteresan. Ampere'in enerji verimliliği zaten pek iyi durumda değildi. Amd yıllar sonra Nvidia'yı yakaladı ve hatta birçok durumda geçmiş oldu. Şimdi ise enerji verimliliği daha kötü bir noktaya gidecek gibi görüyor. Bildiğim kadarıyla Nvidia radikal bir değişikliğe de gitmeyecek. Hala ray tracing işi çözülmüş durumda değil. İki firma da performansı artıracak işler peşinde. Zaten kimse Nvidia'ya ray tracing sormazken, öyle bir şey sunup gpuları oldukça büyütmeyi ve neredeyse istenen kıvama gelmiş olan performansı dibe çaktırmayı göze aldı. Ampere ve dlss ile belli ölçüde toparlanmış performansı tekrar dibe çekecek bir bahane bulmadıysa, bahsi geçen yüksek güç tüketimlerinin sebebi nedir? Turing'i tanıtırken söyledikleri "bu ray tracing gerçek olanı değil, henüz melez bir teknoloji, anca kotarabildik, 10 yıla gerçeğini sunarız" işi, acaba "10 yıl beklemeyelim dedik, komple ray trace edeceniz bunlarla, bizden başka da kimse yapamıyor bunu, ama gpunun fiyatı 3000 dolar, 500w da güç tüketiyor" noktasına mı geldi diye sorduruyor.

Artık biraz daha normal işler olsa güzel olacak. Maxwell/Pascal zamanları iyiymiş cidden. İyice şirazesi kaydı işin.

Share this post


Link to post
Share on other sites

RT uniteleri az yer kapliyor. Vaktiyle doku unitelerini double'lamalari gibi RT unitelerini de ikiye katlasalar bile cok yer kaplamaz. Daha fazlasini da yapmazlar, performansinda zaten ondeler, konsolda da calisacak sekilde yapilan oyunlari daha yuksek kalitede, daha hizli calistirabiliyorlar.

5nm'e gecis olursa ben de guc tuketiminin iyilesmesini bekliyorum. Yine de kartin guc tuketimi artacaksa bunun sebebi bu uretim teknolojisiyle uretebildikleri kadar buyuk GPU uretmeleri ve performansta sicrama yapmalari olabilir. 3080'larin uzerinden 2 yil gecmis olacak.

Ayni mimarinin sadece RT cekirdek oranini 2x yaparak daha cok cluster koyabilirler. Alternatif olarak cluster sayisini cok arttirmadan icindeki Tensor core miktarinda artisa gidip iyice AI'a abanmalari mumkun. Herhalde oyunlarda ortalama faydayi goz edip ikisinden bir sepet yaparlar.

Ya da AMD 5nm'e gececekse biz 7nm yapsak yeter, onlar zaten cekirdek alani butcesini hafizaya ayiriyor derler, hayal kirikligi olur ama maliyetlerini dusuk tutmus olurlar.

Share this post


Link to post
Share on other sites

Bence 7nm'yle uğraşmazlar artık. En azından üretimle ilgili veya Tayvan'ın tepesinde uçan Çin savaş uçakları ilgili bir sorun olmadığı sürece kesin 5nm'ye inerler diye düşünüyorum. Bunun sonucunda da güç tüketiminin ciddi biçimde iyileşmesini bekliyoruz, ama gelen haberler pek öyle değil:

https://videocardz.com/newz/nvidia-geforce-rtx-4090-class-gpu-with-600w-tgp-has-reportedly-been-confirmed

Tabi bunlar söylentiden ibaret ama bu elemanın dedikleri de pek yalan olmuyor.

Açıkçası ben artık her yeni nesil gpu döneminde mining işi hortlayacağı için yalnızca notebook tarafına bakarım diyorum. Ama güç tüketimi bu seviyelere çıkacaksa, en azından 400-500w gibi değerlere ulaşacak olursak, notebook tarafında fazla beklentiye giremeyiz. Zaten bugün Pascal mimarili kartlar bile notebookta iş görür durumdalar. Sebebi de enerji verimliliğinde o dönem zirveye çıkılmış olması. Sonrasında yeni mimarilerle gelen gpular pek fazla bir şey sunmadı. Yalnızca dlss'in belirgin bir getirisi oldu, o kadar.

Gelecek nesilden beklentim büyük, çünkü Ampere ile olmasını beklediğim şey olmadı. Bu nesilde de boşverelim verimliliği, ray tracing'i, 8k'yı halledelim derlerse yazık olacak. Dlss gibi bir nimet varken, bunlarla fazla uğraşılmasını da beklemem. 3090'ı 8k üzerinden pazarlarken bile dlss diyordu Nvidia.

Edited by mamad

Share this post


Link to post
Share on other sites
12 hours ago, mamad said:

Linkteki bilgiler tutarsa biraz dedigim gibi oluyor. Enerji tuketimi iyilesmis ama daha cok birim ekledikleri icin toplam enerji tuketimi artmis.

On 3/16/2022 at 5:47 PM, epi said:

5nm'e gecis olursa ben de guc tuketiminin iyilesmesini bekliyorum. Yine de kartin guc tuketimi artacaksa bunun sebebi bu uretim teknolojisiyle uretebildikleri kadar buyuk GPU uretmeleri ve performansta sicrama yapmalari olabilir. 3080'larin uzerinden 2 yil gecmis olacak.

  • RTX 3090 1.7GHz, 10496 CUDA Cores.
  • Bunun icin 2.2GHz 18432 CUDA Cores demisler (linkte).

2 yildan sonra 5nm'e gecisle 2x ustu performans artisi hedefliyor gibiler. Yani yine kablo + PCIe ile cekip besleyebilecegi kadar gucle, sogutabilecegi sinirlar altinda elde edecegi maksimum performansi kovalayacak.

Guc tuketimi iyilesmis, ayni performans hedeflense daha az guc tuketerek elde eder, ayni guc tuketimi ile daha cok performans elde edilebilirmis ama rekabet sonucu hedef "maksimum performans" olunca guc tuketimini de yonetebildigi kadar arttirip yeni uretim teknolojisiyle varabilecegi sinirlara kadar zorlayacak anlasilan.

Kaba bir hesapla laptop'ta da yine prize bagliyken ayni miktarda guc cekip mevcut nesli katlar. Prize baglamadiginda yari performansa dusup simdiki neslin prize bagli halini verir ama bir saatte pil biter. Simdiki neslin pilden calisirken verdigi performansta 2 kat pil omru saglar. Giris seviyesi mobil 3050-3060'lere denk bir sey de sunarlarsa dusuk guc kullanimli, uzun pil omurlu ama DLSS falan da sunan bir sey gormus oluruz.

Performans 2x dedigim ortalama. Ray Tracing performansi herhalde 4x yapar. Veya o da 2x performans ama daha net (daha cok sample'la basladigi icin daha az denoising gerektiren) bir goruntu sunar.

AMD daha az enerji cekiyordu ama gomulu hafizayla hayvan gibi cip yaptiklari icin o da cok isiniyordu. Simdi ikisi de ayni uretim teknolojisi ile uretilince ilginc olacak. Linkteki bilgi dogruysa AMD de iki GPU'yu (MCM) yapistirip rekabete devam edecek.

Apple'in M1 Ultra tasariminda 2x M1 Max'i yapistirinca 3090 performansiyla rekabetten soz etmeye baslamisti. Onu ufak masaustu bilgisayarinda kullaniyor. Pro cihazlarinda 2x yerine 4x yapma ihtimalinden soz ediliyor (mumkun mu bilmiyorum). Dogruysa sonbaharda duyururlar. Olursa nvidia'nin yeni nesilde onu gecmesi icin zaten bu sekilde bir seyler yapmasi gerekir.

4090'li bir PC toplarsak, PSVR gibi eye tracking tabanli foveated rendering ile kullanilirsa VR'da UE5 Matrix Awakens demosundaki sehir gibi ortamda Robo Recall 2 calistirir artik.

Olan su aralar cikinca heyecanla 3090 Ti alana olacak. "Performans %6 artiyormus abi" diye o kadar para verecekler. nvidia'nin yuksek guc gereksinimli kart tasariminin gonullu beta tester'i olacaklar.

Edited by epi

Share this post


Link to post
Share on other sites

Nvidia yeni GTC'de Hopper'ı tanıtacak deniyor: 

https://blogs.nvidia.com/blog/2022/03/18/nvidia-ceo-jensen-huang-gtc/

https://videocardz.com/newz/nvidia-hopped-up-for-gtc-2022-the-company-set-to-announce-hopper-gpu-architecture-next-week

Mimarinin tanıtımı olacaktır ama oyun kartları da çok gecikmeden gelir diye düşünüyorum. Tabi Volta gibi bir şey olmazsa. Başından beri Nvidia iki mimari hazırlıyor falan diyenler de vardı. Zaten ne olacağı belli olmadığı için iki mimarinin adını da başlığa yazmıştım.

Edited by mamad

Share this post


Link to post
Share on other sites

Unreal Engine ile Star Wars ray tracing demosunu 4 yil once yine Mart'ta pro sistemlerini tanitirken gostermislerdi. Hopper'lar da veri merkezleri icin, pro, multi chip tasarim. Ada Lovelace oyun ekran kartlari icin. Belki yine sekilli bir demo goruruz. Yil sonu icin de teaser olur.

Mevcut nesilde veri merkezi icin pro GPU'lar 7nm TSMC, oyun ekran karlari GPU'lari 8nm Samsung. Yeni nesil icin sizan bilgilerde ikisi icin de 5nm TSMC denmis ama tutmayabilir. Gerci AMD 5nm'de MCM ile cift GPU tek karta basacaksa nvidia'nin da 5nm'e gecmesi gerekebilir.

Oyle ya da boyle, ben bir onceki nesle gore 2x performans bekliyorum (fiyat da 2x olmasin da). PS5'da UE5 Matrix Awakens calisiyorken bu donanimda yapilabilecek demonun pek siniri icerigi hazirlayanin becerisine kalmis. "Iki saattir Jensen diye izliyorsunuz ama video degil o, 3D, sesi ve animasyonu falan da ben kaydetmedim, yapay zeka" desin, evlere dagilalim artik.

Share this post


Link to post
Share on other sites

Yapay zeka cok onemli. Animasyonlar, ifadeler, gozlerdeki bakis… Agizdan cikan seye dudagin uymasi yetmiyor, butun yuzu, vucut dili, gozunun ici uyacak. Onu animatore elle yaptirmayan, metni ve duyguyu belirleyince AI ile otomatik yapan bir sistem oturtsunlar, 10 dakikada super icerik uretir hale geliriz. “Uncanny valley’nin uzerinden yapay zeka ile atliyoruz” diye tanitirlar.

Siri/Alexa nasil “kusura bakmayin, onu bulamadim” derken sesinin tonunu ona gore ayarliyorsa ayni yapay zeka duygunun nasil olmasi gerektigini zaten biliyor. O duygunun yonu ve heyecan seviyesine gore ifade ve animasyonu suren bir yapay zekayi yuzdeki mikro-ifadelere kadar basarili yapacak sekilde kotarsinlar, cag atlayalim.

O yapay zekayi hazirlamak icin gercek insanlardan yuksek kare hizinda alinan goruntuleri “burada mutlu, burada heyecanli” diye elle etiketlenmis sekilde izletip dogal gozukecek gecislerin nasil oldugunu ogreten bir training asamasi lazim. Nasil DLSS icin egitiyorlarsa yine kendi merkezlerinde dev bilgisayarlarda egitecekler, bize sadece bir dll indirmesi kalacak.

Metahuman falan grafikler yeterli ama olay o degil. Karsinda oturup sohbet edeceksin, gulumseyecek, soruna cevap verecek, kadehini kaldiracak… Sonra tarlayi her bicen "parayi konsomatrisle yiyeyim" diye pavyonda solugu alip sabah hesaba para cikismayinca zincirli hortumla dayak yiyor. Suna bi cozum bulun Jensen Bey.

edit: Tabi content creator'lar icin omniverse'de calisacak, oyuncular icin UE ve Unity gibi oyun motorlarina entegrasyonla GPU'da yuksek performansli gercek zamanli calisacak. Asil olay gercek zamanli calismasi, yoksa derdimiz animasyoncudan kurtulmak degil. Yapay zekayi gercek zamanli canlandirmak.

Edited by epi

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!


Register a new account

Sign in

Already have an account? Sign in here.


Sign In Now
3 3

  • Recently Browsing   0 members

    No registered users viewing this page.