Nvidia GeForce RTX/GTX Turing Ailesi (2018-2019)
1 1

Bu konuda 730 mesaj var

2 dakika önce, Whooosh said:

Gerek var mı? Yani bellek miktarı performans arttıran yada kullanıcıya başka kullanım imkanları veren bir şey değil ki.

 

Gerek var mı emin değilim, ama bir önceki nesilde aynı seviye 11-12 gb iken şimdi neden geriye gidiyoruz? Bu geriye gidiş karşısında daha az para ödememiz mi isteniyor? Hayır, tam tersi. Daha fazla ödeyin, daha az bellek alın. Neden böyle olsun ki? Bir de bir önce 1080 modelinden %40-45 daha performanslı bir karttan bahsediyoruz, ama bellek aynı kalıyor. Pek hoş bir durum değil. Tamam 4k ötesini şuan için pek de konuşamıyoruz ama iki ay sonra bir oyun çıkıp ultra texture paketi koyup 10 gb bellek isterse nolacak? 800 dolarlık kart o noktada patates olacak, öyle mi?

 

Ayrıca ray tracing için bir de bellek sıkıntısı olmasın sonra?

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Belki sorun 8gb 20xx serisinde değil de 11-12gb bellekli 10xx serisindedir.

Bu bellek kıtlığında pazarlama unsuru harici bir fonksiyonu olmayan fazla bellek için bol keseden kullanmak zaten gereksiz bir hareket olurdu. Ayrıca bu kartlar hali hazırda şu halleri ile pahalı iken 12+ gb belleklerle gelselerdi fiyatları nasıl olurdu tahmin etmek bile istemiyorum.

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş
40 minutes ago, mamad said:

 

Titan'la Ti arasında fark mı kaldı? 

 

İlk Titan'lar (Kepler mimarili gk110 gpulular) gerçekten bir fark koyuyordu ortaya. Dp birimleri sayesinde yüksek cuda/gpgpu gücü sunuyordu. Ama Maxwell'den itibaren "Titan = Hayvani bellek" olmaktan başka bir şey sunmadı. Hatta Pascal'da o bile olmadı, 1080 8 gb, Titan geldi 12 gb. En az 16 gb olmalıydı.:mrgreen: Adamlar 3000 dolarlık Titan V'de bile stack ramin birini kapatıp 12 gb bellek sundular.

 

Titan vitrin kartı. Sadece "en hızlı oyun gpusu bizde" diyebilmek için, benchmark listelerinde en üstte Nvidia yazdırmak için üretilmiş bir ucube. Bir satış bir gelir beklentisi olan bir sınıf değil Titan'lar.

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş
2 saat önce, Whooosh said:

Belki sorun 8gb 20xx serisinde değil de 11-12gb bellekli 10xx serisindedir.

Bu bellek kıtlığında pazarlama unsuru harici bir fonksiyonu olmayan fazla bellek için bol keseden kullanmak zaten gereksiz bir hareket olurdu. Ayrıca bu kartlar hali hazırda şu halleri ile pahalı iken 12+ gb belleklerle gelselerdi fiyatları nasıl olurdu tahmin etmek bile istemiyorum.

 

Aslında mesajı yazarken ilk cümleye de cevap olabilecek bir şey yazdım da sildim. Basitçe gideyim;

 

Kepler kartlar bellek miktarı sebebiyle eleştirilmişti. Çünkü Amd o dönemde daha fazla bellek sunuyordu. Nvidia tarafında ise o sırada yeterli sayılabilecek miktarda bellek sunuluyordu. 680 2 gb, 780'ler 3 gb. O sıralar yeni nesil konsolların çıkması ve 4knın ortaya çıkmasıyla belleğin artması gerektiği düşünülür oldu. Zaten Nvidia da maxwell'le 4 gb belleği standart yaptı. 980, 680'den %60-65 civarında hızlıyken, belleği 2 katına çıktı. Gayet de uygundu. 980ti da 6 gb ile geldi. Bunda da bir gariplik yoktu. E ondan %30-35 kadar hızlı 1080'de de 8 gb bellek olmasında bir gariplik yoktu. Doğal olarak 1080'den %30-35 kadar hızlı olan 1080ti'da 11 gb bellek olması normaldi.

 

Yani performans ve 4k ihtiyacına göre bellek miktarındaki artış düzenli şekilde gerçekleşiyordu. Şimdi ise 1080'den %40-45 daha hızlı olacağı (resmi olarak) söylenen ve 1080ti'dan %5-10 hızlı olacağı tahmin edilen 2080, 8 gb ile gelecek. Bunda bariz bir geriye gidiş var. Fury X'teki 4 gb gibi bir abukluk yok belki ama şöyle kabaca bir hesapla Fury X'in iki katı performansa sahip 2080'in, onun iki katı bellekle geliyor olması çok da iyi bir durum değil. Çünkü oyunların bellek ihtiyacı arttı ve Fury X'e 4 gb belleğin yetmediği birçok durum olmuştu.

 

Maliyet konusunda ise pek fark olacağını düşünmüyorum. Nvidia kafadan 100/200 dolar yüksek fiyat çekebiliyorken kartlara, fazladan konacak 2 tane bellek yongasının 15-20 dolardan fazla maliyeti olacağını pek sanmıyorum.

 

Bu kartlar uzun süre güncel oyunları oynatabilecek kapasitede kartlar. Pascal'lar bile öyle zaten. Hatta maxwell'ler bile öyle. Mesela şöyle düşünelim; Nvidia 2 yıl daha yeni kart çıkarmadı ve o sırada da yeni nesil konsollar çıktı. Oyunlar da şuan için abartı sayılabilecek bellek kullanımına ulaştı. Mesela 12-16 gb. O sırada Nvidia'nın sunduğu en son kartların sürünmesi garip olmayacak mı? Hem de eski 1080ti, sırf bellek sebebiyle 2080'in önüne geçerse, biraz da ayıp olmaz mı? Bu şuan gayet olası bir durum. Gerçi öyle yeni nesil konsolların falan çıkmasına da gerek yok. Şuan zaten birçok oyun 6 gb bellek kullanımına ulaşmış hatta geçmiş durumda. Nvidia'ya kalsa 2018'de 5k için 11 gb lazımmış:

 

gtx-1080-ti-framebuffer.jpg

 

Nvidia doğal olarak bunu abartılı şekilde sunmuş olabilir ama 20 serisi kartlar esas olarak 2019'un kartları olacak ve artık 4kda 8 gb'ı aşan bellek kullanımı söz konusu olacak. Hatta bazı oyunlarda şuan bile olduğu söyleniyor. Misal CoD ww2, Titanfall 2...

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş
2 hours ago, mamad said:

 

 

gtx-1080-ti-framebuffer.jpg

 

Nvidia doğal olarak bunu abartılı şekilde sunmuş olabilir... 

Aynen öyle yapıyor.. Minareyi çalan kılıfını hazırlar misali önce 11gb bellek koyup sonra sonra buna sebep uyduruyor. 

 

Vram miktarının artış oranının grafik işlemcinin işlem gücü ile paralel olarak artması bir zorunluluk değil. Önemli olan bellek bant genişliğinin işlem gücü ile birlikte artması. Bundan mütevellit 10xx serisinde 11gb bellek kullanılmış da olabilir, yani gddr5'in bellek hızı gerekli olan bant genişliğini sağlamadığından bellek modülü sayısını yüksek tutup gerekli bant genişliği bu şekilde sağlanmış olabilir. Tabi HBM2 ve Gddr6 ile böyle bir ihtiyaç kalmıyor, yani en azından şimdilik.

 

Programcı vram'i doldurur. Sahnede gözükmeyen objelerin kaplamaları bile vram'e kopyalar, daha az flush yapar yine doldurur isterse. Bu demek değil ki o kadar vram'e ihtiyaç var.

Ayrıca donanım üreticisi olarak "gerekirse" oyun yapımcısıyla anlaşırsın o vrami doldurur. (örnek verdikleri oyun da oyun olsa. 2017 yılındaki tanıtımda 2011'de çıkmış ama 2006 yılının grafiklerine sahip Deus-ex gibi bir oyunu örnek vermişler)

 

Bir yanlışlık olmasın, 11gb vram kullanan oyun da şu;

Deus-Ex-Mankind-Divided-4.jpg

 

 

Diğer taraftan teknik olarak herhangi tür bir ram'in mümkün olduğu kadar fazla kullanılması makbul olandır çünkü ram kullanıldıkça fayda sağlayan bir şey. Çünkü çok hızlı ve kimseye zararı yok.

 

Ayrıca 11gb vram'li bir sistemde 10gb vram kullanan bir oyunun vram limiti 5gb'a düşürüldüğü de fps düşecek diye bir şey de yok. Genelde o oyunun 10gb vram kullanması zorunluluktan değil, var diye bol keseden kullanması, halbuki atıyorum 4gb vram ile de 6gb vram ile de aynı performansı verebilir o oyun. Yani 10gb kullanıyor olması 10gb'a ihtiyacı var manasına gelmiyor.

 

RT'nin fazla vram kullandığını düşünmüyorum. Sürekli devam eden bir hesaplama olsa doğru, 4 saatlik rt render sonrası 10gb vram dolabilir çünkü ilk hesaplanan veriyi hafızada tutmak zorunda ama her kare için sıfırdan rt işlemenin vram sorunu oluşturacağını zannetmiyorum. Pro (quadro) serisinin absürt vram miktarlarıyla gelmesi bu sebepten.

 

 

 

 

https://www.tweaktown.com/tweakipedia/90/much-vram-need-1080p-1440p-4k-aa-enabled/index.html

Whooosh tarafından düzenlendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Bildigim kadariyla ray tracing cok bellek kullaniyor. Bir de veri bandi genisligini arttirmak icin bellek ekliyorlar; GPU mesela 2GB'a 64bit'te baglanacagina 4GB'a 128 bit'te baglaniyor (cunku 2 tane 2GB bellege paralel olarak 64'er bit veriyoluyla baglaniyor).

 

Karta iki kat hizli 6GB bellek koymak yerine ayni hizda 12GB bellek koymak daha ekonomikse tek tasla iki kus vurmus oluyorlar, hem kapasite artiyor, hem maliyet dusuyor, veri bandi genisligi ayni oluyor.

epi tarafından düzenlendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

pnDJyn.jpg

 

Vallahi ben bu sahnede "vay be! RT ile yansımalar şahane!" dedirtecek bir durum göremedim. Nehirde akan sudaki yansımaların, bilinen tekniklerle yapılanlardan hiçbir farkı yok.

 

RTX tanıtımında slow-mo gösterilen efektlerden eser yok burada.

Najaz tarafından düzenlendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Günlerdir anlatmaya çalıştığım şey de bu.

Nvidia tanıtımda günümüzde kullanılan alternatif teknolojileri yok sayıp, RT'yi doğrudan DX8 ile karşılaştırdığı için canlı örnekler çıktığında insanların "bu muydu yere göğe sığdıramadığınız şey?" diye sorgulaması normal.

 

Tabi tam entegrasyon için sıfırdan geliştirilecek projelere bakmak lazım. Bu ilk örnekler son dakika yaması şeklinde olduğundan çok fazla şey beklememek lazım.

rammstein beğendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Butun isiklandirma gercek zamanli ve yuksek kalitede oldugu icin ortam bu kadar degisken olabiliyor:

 

Siz oyunu zaten bir onceki teknolojiye gore tasarladiysaniz farki ancak hareket eden isiklarda, hareketli karakter golgelerinde ve yansimalarda goruyorsunuz.

 

Konsollarda bu tarz yetenek gomulu olsun, butun ortam ona gore olur. Mesela Obi-Wan ile Anakin lava gezegeninde duello yaparken hem degisken ortam, hem isin kiliclari ile olusan isiklandirma en iyi bu teknoloji ile verilir.

 

Doom 3 gibi unified isiklandirma, her yerde dinamik ama CG reklam urun fotosu golgeleri gibi yumusak ve kaliteli.

 

Bu nesil bunu yuksek cozunurlukte ve yuksek hizda yapmaya performans yetmeyebilir ama teknoloji guzel. Zaten sanirim performans sorunu olmasin diye gosterilen demolar hep acik alan demolari, temel bir gunes isiklandirmasi, tek isik ile limitli. Metro’daki ic mekan goruntulerinde bile disaridan sizan gunes tek isik kaynagi. Bir suru ortam isigi olan kapali mekanda performansin yeterli olacagini gormedik henuz. Belki o durumda hybrid cozumlere yonelmek gerekecek.

 

Sabit mekanda sabit golgeler ve yuksek cozunurluklu mekan kaplamalari ile eski tip hazirlanacak bir goruntunun goze iyi gelmesi tabi ki mumkun. O sabit golgeler de offline olarak (prerendered lightmap seklinde) ray tracing ile hazirlaniyor zaten. Ama sabit.

 

Sabit ekran goruntusu alip bakacaksan doku cozunurlugu ve oyun cozunurlugu herseyden onemli. Hareketli goruntu soz konusu olunca ya ortamin degiskenlerini kisitlayarak eldeki teknige gore icerik yapilacak, ya da ray tracing ile yepyeni seyler yapilacak. Su anda ara donemdeyiz.

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

nvidia'nin tipkisinin aynisi dedikleri video bu:

 

Vaktiyle bende de heyecan yaratmisti cunku scale edilmeye uygun bir mimari olarak tanitilmisti, yani mesela SOC tasarimlarinda PowerVR kullanan Intel, yeni bir APU ile piyasaya girecekse bu mobil GPU unitelerinin birkacini bir araya getirip yuksek performans elde edecek bir sey tasarlayabilir dusuncesi vardi. Ama goruntu kalitesi haliyle karsilastirilacak seviyede degil.

 

Kagit ustunde bu da 6 Giga Ray, 2070 de. Ama onemli olan AI'in o performansla ne yaptigi.

 

http://raytracey.blogspot.com/

Bu blog'u ara ara takip etmeye calisiyorum. Denoising ile gercek zamanli ray tracing performansina ulasmak uzun suredir pesinde kosulan bir hedef. Sen/ben bunu basaracak bir algoritma yazsakdik gectigimiz yillarda milyonlar karsiligi satar, erken emekli olurduk. Kimbilir kac tane paper yayinlanmis bu konuda, kimbilir Industrial Light & Magic gibi firmalar ne kadar arastirma yapmis ama bu performans/goruntu kalitesi seviyesine ulasilamamis bugune kadar.

 

Gercek hayatta ortamda zilyon tane photon sekip duruyor. Dijital ortamda bunu simule etmek icin atiyorum trilyon tanesi kullaniliyor. Gercek zamanli goruntude olusturmak icin "biz 5-10 milyar gibi limitli sayida ray ile soldaki gibi goruntu olustursak, yapay zekaya bunun trilyon ray ile nasil gozuktugunu ogretsek arayi tamamlayabilir mi" diye yillardir ugrasiyorlar:

glass_denoise.png

 

Tamam PowerVR de 6 milyar isin simule etmis, 2070 RTX de 6 milyar simule etmis ama o sekilde solda olusan goruntuden sagdakini cikartacak denoising yapay zekasini nvidia olusturmus, bu yapay zekayi gercek zamanli calistiracak Tensor cekirdeklerini dev gibi islemciye nvidia gommus. PowerVR'nin donaniminda bu denoising'i yapacak yapay zeka uniteleri olmadigi icin, RTX'lerdeki islemci gucu, hafiza miktari ve genisligi olmadigi icin haliyle nihai goruntu dandik.

 

Bunlar sadece nvidia'nin degil, sektor devlerinin ve universitelerin uzerinde calistigi konular. Simdi filmde belki yine eskisi gibi trilyon ray ile goruntu olusturulacak. Ama bilgisayar basinda o filmi tasarlayan adam soldaki gibi degil, sagdaki gibi goruntuyu gercek zamanli gorebilecek. Film icin trilyon ray ile goruntu olusturmak icin kullandigi ortam ve karakter tasarimini polygon sayisini ve doku kalitesini en az kayipla azaltan bir tool'dan gecirip oyuna aktaracak, ayni assetler oyunda real-time calisacaklar. Film ortaminda hazirladigi isiklandirmayi oyun ortaminda hile hurda ile taklit etmek icin aylarini harcamayacak. Disney/Marvel/Pixar/Star Wars imparatorlugunun oyunlarda ve VR'da hakimiyetinin bugunden 10 yil sonrasina grafigini cizsen mavi hapli penis sekli cikacaktir :mrgreen: 

 

Simdiye kadar Geforce'larla Quadro'lari birbirinden ayri tutmak icin .icini yirtti nvidia. Ilk nesil Geforce'larda bir lehimle modifie edip sisteme Quadro olarak tanitabiliyorduk. Sonraki nesillerde soft-mod'lar cikti, yazilimla ayni isi halleder olduk. Su andaki durum nedir bilmiyorum ama Quadro driver'larinda olup da Geforce'lar driver'larinda olmayan ozellikler gittikce azaldi. Bizim pahali dedigimiz bu kartlardan ikiser tane alip NVLINK bridge ile baglayip 22GB memory pool ile profesyonel amaclar icin kullanacak ve "hoho ne kadar ucuza aldik la" diyecek cok firma cikacak bence.

 

Fiyatin bu kadar pahali olmasinin sebebi: (1) islemci dev, (2) rekabet olu, (3) profesyonel alanla ayrim bulanik, (4) en yeni ve iyiye ve daha once gormedigi teknolojiye para odemeye hazir bir kitle mevcut. Adam dun SLI yapiyorsa bugun ona niye daha ucuza bu kart satilsin? Su anda hala 10x0 serisi iyi satiyorsa onlarin fiyatini niye dusursun? Kendi acisindan dogru olani yapiyor tabi. Rekabet zorlayana kadar boyle gider.

 

Yarin AMD 7nm uretim bandindan HBM2 ile cikaracagi GPU'suyla "ya biz de ray tracing yapiyoruz, bizde de 10 Giga Ray var" demek icin bu kadar AI unitesi koymak zorunda degil, PowerVR gibi kagit uzerinde kotarabilir isi. Klasik GPU unitelerini duble doseyip "arkadas biz 4K'da 120hz de veriyoruz, ray tracing'se o da var bizde" diyerek pazarlamaya kalkabilir. Hemen ardindan goruntu kalitesi karsilastirmalari gelir, Battlefield'da yerdeki yansima nvidia'da daha iyi gozukuyor diye bir kismi onu "future proof" ilan eder, digerleri "tamam da AMD kaba shader performansinda ciddi sekilde onde, bugunun oyunlarinda daha iyi olacaktir" der. Ama bugunun oyunlari AMD driver'lariyla sorunsuz calisana kadar bir sonraki nesil donanim gelir zaten. Belki nvidia ilk etapta satislarda yuksek para toplar, sonra AMD'ye biraz pazar payi kaptirir ama bir sonraki nesilde performans acigini yakalar, ustelik bu tarz donanimin driver'lari uzerinde uzun sure calistigi icin teknoloji olarak yine onde olur. Tabi bunlar AMD'nin iyi bir urun kotarmasi ihtimali uzerine spekulasyon, super bir sey yapacagiz diyerek tirt bir urun de getirebilirler. Ama nvidia'nin karsisina bu tarz bir tasarimla cikip pazar payi ve piyasa degeri arttirma pesinde kosmalari bence mumkun.


Konsollar 2020 gibi cikacaksa 4K'da 30-60 fps ray tracing hedeflenebilir, bir sonraki nesil oyunlarda bu ozellikler standart olabilir. Isteyen oyun yapimcisi 60fps'yi sabit tutar, cozunurlugu dinamik yapar, isteyen 4K'yi sabit tutar, fps'yi 30-60 arasinda degisken yapar (muhtemelen oyun motoru o andaki sahnenin icerigine gore bu ikisi arasinda akilli secim yapacaktir). 4K TV ve ekranlarda Variable Refresh Rate (VRR) de standartlasir o zamana kadar. Belki ilk gelen modellerinde degil, Pro modeller 4K'da ray tracing'in hakkini verir. Bugun "gerekli mi, cok farkediyor mu" denilen ray tracing o gunlerde standart olur, "PC'de biz onu 120+ hz'de calistiriyoruz canim" diye hava atiliyor olur. O zamana kadar ekran kartinizda bunlar olmasa da olur tabi.

 

Bunlar hep teknolojik gelisme takip eden, grafik icerige merakli, hobici adam icin ilginc seyler. Ben arkadasi tufekle kafasindan vuracam, hangi karti alayim diyen 1080Ti alip gecer, buraya kadar okumaz bile. 

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Ekran kartindaki tensor cekirdeginin o anda oynanan oyundan gelen goruntuye bakarak icerigi analiz edip driver'da gomulu yapay zekaya gore gercek zamanli optimizasyon yapmasi durumunda yasanacak performans artisi bu mimarinin asil olayi. Bugune kadar oyun optimize etmek icin ya oyun tasarimcisi ya da driver programcisi tarafindan elle yapilan herseyin yapay zekaya birakilmasi mumkun olabilir. Bugunku benchmark sonuclari birkac ay sonra ayni olmayabilir.
 

Bir hesaplamanin hangi precision'da yapilacagina, bir dokuya hangi kalitede filtreleme uygulanacagina ideal durumda oyun tasarimcisi karar verir. Oyun tasarimcisi ruh hastasi gibi her olasi duruma gore optimizasyon yapmamissa nvidia driver'lari devreye girer. Crytek "baba her yeri 16X filtrele, double precision hesapla, sanimiz yurusun" dedi diye oyunun surunmesine izin verilmez.
 

Driver programcisi genel durumlarda "yere X aciyla duran yuzeyde 16x ile 4x anisotropic filtering arasinda cok fark olmuyor, burayi 4x filtreleyelim, surayi 16x filtreleyelim", "hele su yuzeyde bilinear ile trilinear arasindaki fark bile anlasilmiyor, bilinear filtreleyip gecelim" diye nihai goruntuyu en az bozacak sekilde performans arttirmanin pesinde kosar. Aynisini depth of precision icin de yapar, goruntu kalitesinde olusan etkiye gore floating point ile integer arasinda, 8 bit ile 16 bit arasinda tercih yapilir vs. Oyuna ozel optimizasyonlarda oyunun kullandigi bazi shader'lar arka planda kartin mimarisine gore daha iyi performans veren alternatifleriyle degistirilir.
 

Simdi bunu bu sekilde nvidia muhendislerinin sabah aksam calisip genel durumlara uyacak sekilde yapmasi yerine ellerindeki superbilgisayarlarda oyunun farkli ayarlarda calistirildigini, en yuksek ayarlar ile goruntu farkinin minimum ama performansin maksimum oldugu ayarlarin yapay zekaya ogretildigini dusunelim.
 

Doku filtreleme ve precision sadece ilk aklima gelen ornekler. Objelerin ekrana uzakligina gore kaplamalarin cozunurlugunun ayarlanmasi, yuzeyin ekrandaki yeri ve acisina gore normal mapping, parallax occlusion mapping veya tesselation arasinda secim yapilmasi, uzaktaki objelerin daha az poligonla cizilmesi, golgelerinin daha basit hazirlanmasi vs... Zaten motion blur uygulanan yuzeydeki dokunun cozunurlugu ve filtreleme kalitesinin dusuk tutulmasi gibi kombolar. Kartin bu sekilde goruntu kalitesini degisken yapip, kare sayisini sabitlemesi, bunu da dinamik cozunurluk gibi goruntuyu komple bulandirmak yerine farkin az farkedilecegi yerlerden kisarak yapmasi mumkun.
 

Hem iyi hem kotu. Yarin AMD canavar gibi bir kartla cikarsa, nvidia arayi kapatmak icin yeni driverlariyla %50 performans artisi saglarsa ama bunu sadece benchmark olarak kullanilan oyunlarda yapip digerlerini sallarsa ve bu performans artisi icin arka planda goruntu kalitesini katlederse "AMD'nin karti aslinda daha iyi" demek lazim. Ama bu teknolojinin gorsel kaliteyi sabit tutarak performansi arttirmak icin kullanilmasi mumkun.

Bu sekilde driver optimizasyonunda yeni bir cag aciliyor. Isten biraz anlayan herkes NDA altinda anlasilan, o yuzden bana kaldi ahkam kesmek.

epi tarafından düzenlendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

@epi

Bence dahili ai birimini gözünde fazla büyütüyorsun. Bu ai birimlerinde öyle bir işlem gücü, öyle ucu açık bir kapasite yok. Daha çok dijital fotoğraf makinelerinin fotoğraf işleme işlemcileri gibiler, sadece biraz daha akıllılar.(hatta ai destekli fotoğraf işleme sistemleri daha doğru netleme, daha isabetli renk ayarı gibi konularda cep telefonlarında bile kullanılmaya başladı) Bu ai birimlerinin yapabildikleri tek şey piksel piksel resim işlemeden ibaret. Bu ai işlem birimiyle yapılabileceklerin çoğunu zaten RTX kütüphanesine eklemişler. Belki ilerleyen dönemlerde birkaç akıllı fonksiyon da ekleyebilirler misal, sadece ssoa desteki eski oyunlarda ssao'yu devre dışı bırakıp onun yerine ai tabanlı akıllı ao yapabilirler.

 

Quote

Objelerin ekrana uzakligina gore kaplamalarin cozunurlugunun ayarlanmasi, yuzeyin ekrandaki yeri ve acisina gore normal mapping, parallax occlusion mapping veya tesselation arasinda secim yapilmasi, uzaktaki objelerin daha az poligonla cizilmesi, golgelerinin daha basit hazirlanmasi vs... Zaten motion blur uygulanan yuzeydeki dokunun cozunurlugu ve filtreleme kalitesinin dusuk tutulmasi gibi kombolar.

Bunların bir kısmı zaten fii tarihinden beri geleneksel yöntemlerle gayet başarılı şekilde yapılabilen şeyler, diğerlerinin ise yapılması için bir sebep yok, hatta ters etki yaratıp performans düşüşüne sebep olabilecek şeyler. Sahnede dinamik olarak yaptığınız her müdehalenin cpu ve gpu üzerinde negatif etkisi oluyor. Yani o tuğlaları çıkarıp başka bir yerde işleseniz bile o tuğlaları çıkarıp takarken başka işlem yükü oluşturuyorsunuz. Bu yöntemle kazanacağınız işlem gücü oluşturduğunuz işlem yükünden geride kalacaktır.

Misal dx11 tesselation kütüphanesinde zaten "lod" olayı var ve çok da güzel çalışıyor. Siz bunu ayırıp harici bir işlem birimiyle işleyip sonuçları tekrar ekran kartına gönderirseniz daha iyi bir sonuç elde edemezsiniz.

Bu şuna benzer; örneğin bir koliyi 10 metre ileri el arabası ile taşımak dururken bu iş için kamyon kullanmaya çalışırsanız, sadece kamyona yükleme indirme süresi yüzünden bile geç kalırsınız.

Whooosh tarafından düzenlendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

GPU’daki islemcinin tek basina goruntude ne yapacagina karar verecek islem kapasitesi olmasi gerekmiyor. Hangi durumda ne yapacagi superbilgisayarda onceden olusturulmus deep learning temelli yapay zeka olarak driver’da gomulu. Tensor islemcinin yapmasi gereken ekrandaki durumun bu kaydedilmis durumlardan hangisine benzer oldugunu belirleyip “suraya 2807531 nolu optimizasyon case’ini uygula” demek (atiyorum).

 

Bu sekilde araya giren bir yapay zekanin el arabasi - kamyon ornegindeki gibi calismadigi ray tracing denoising’deki basarisindan belli. DLAA performans grafikleri diger bir gosterge. Bence hafife almamak lazim.

 

Optimizasyon icin verdigim ornekler klasik optimizasyon yontemlerinden oldu ki anlasilir olsun. Ray tracing ile yerdeki yansimalarin cizilmesi gerekmiyor, oyuncunun gozunden ray casting ile o an neyin ne kadarinin oyuncuya gorunur oldugu tespit edilebilir. Bu sekilde nerede ne kadar shading gucu kullanilmasi gerektigi dengelenebilir.

 

Simdiye kadar bunlar fikir olarak komikti cunku buna ayrilacak islemci gucu yerine shading’e guc ayirip gecmek daha mantikliydi. Bu mimaride ray tracing icin bu ozel donanim unitelerinin olmasi onlarin bu isler icin de kullanilabilecegi anlamina geliyor.

 

Variable rate shading: http://www.freepatentsonline.com/y2018/0047203.html

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş
18 minutes ago, epi said:

Optimizasyon icin verdigim ornekler klasik optimizasyon yontemlerinden oldu ki anlasilir olsun. Ray tracing ile yerdeki yansimalarin cizilmesi gerekmiyor, oyuncunun gozunden ray casting ile o an neyin ne kadarinin oyuncuya gorunur oldugu tespit edilebilir. Bu sekilde nerede ne kadar shading gucu kullanilmasi gerektigi dengelenebilir.

Zaten öyle çalışıyor ray tracing. Yani ışıktan çıkarak kameraya giren ışık yolu hesaplanmıyor, aksine kameradan çıkan ve ışık kaynağına uzanan ışık yolu tersten hesaplanarak görsele dönüştürülüyor bu teknikte. Bu da oyuncunun/kameranın görmediği yerler için gereksiz yere ışık hesabı yapılmasını engelliyor. Yansımalar da buna dahil.

Misal sadece yansımalarda rt kullanmak için yapay zekaya ihtiyacınız yok, bunu ister shader bazında ister renderer bazında çok kolay ayarlayabilirsiniz ki eminim şuan rtx sdk'sında bunlar ve çok daha fazlası kullanıma hazır durumdadır.

 

Quote

Bu sekilde araya giren bir yapay zekanin el arabasi - kamyon ornegindeki gibi calismadigi ray tracing denoising’deki basarisindan belli. 

Burada da ai post processing olarak çalışıyor ve performansa ne kadar etki ettiğini bilmiyoruz ama rt açıldığında 2080ti'ın bile 60fps vermekte zorlandığı ortada. Bunun ne kadarı ai yüzünden ne kadarı rt yüzünden şimdilik belli değil.

Ayrıca ai'nin yaptığı denoising işlemi geleneksel algoritmalarla kopyalanamayacak yada çok yakın sonuçlar alınamayacak kadar aman aman bir şey değil. Belli olmaz yarın öbür gün AMD yapay zeka falan hiç karıştırmadan öyle bir RT öyle bir denoising yapar ki aklımız şaşar.

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Anlatamadim herhalde. Ray tracing icin kullanilan donanimin oyuncunun neyi ne kadar gordugunu tespit ederek rasterization hesaplamalarini optimize etmek icin kullanilmasi mumkun (driver seviyesinde). Yani bu RT ve AI unitelerinin klasik rendering yontemini hizlandirmak icin kullanilmasi mumkun. Ayni sekilde goruntude bir onceki kareye gore nerenin degistigi, nerenin degismediginin analizi yapilip sadece degisen yerlerin cizilmesi de mumkun olabilir. Ustte Variable Rate Shader konusunda Microsoft Patenti mevcut, shader kalitesi gereksinimini donanimin dinamik olarak belirleyecegi belirtilmis, bunu nasil yapacagi belirtilmemis. Nvidia buyuk ihtimalle bu sekilde yapacak. Ayni yontem ve foveated rendering VR’da da ciddi performans sicramasi saglayacak.

 

Ahim sahim bir sey degil dediginiz denoising icin kac universite arastirma yapmis, hangi endustri devleri yatirim yapmis da bugune kadar bu sonuca ulasamamis. Bence fazla hafife aliyorsunuz.

epi tarafından düzenlendi
rammstein beğendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş
13 hours ago, epi said:

Anlatamadim herhalde. Ray tracing icin kullanilan donanimin oyuncunun neyi ne kadar gordugunu tespit ederek rasterization hesaplamalarini optimize etmek icin kullanilmasi mumkun (driver seviyesinde).

İşte bu pek mümkün görünmüyor. Bu Ai bunu yapacak yeterliliğe yada yeteneğe  en azından şimdilik sahip değil. Şu anki kullanımında düşük çözünürlüklü siyah beyaz bir resmi önceden öğretilenler ışığında boşlukları doldurarak yüksek çözünürlüklü hale getiriyor.

Ai var Ai var. Yani adamlar bu işlem birimine Ai dediler diye bu birim ile sözlük anlamındaki "ai" ile yapılabilecek her şeyi yapmak mümkün demek değil. Ayrıca oyuncunun ne gördüğünü ne kadar gördüğünü belirlemek için bir ai'ye de ihtiyaç yok. Günümüzdeki uygulamalarda binlerce Shader zaten kamera pozisyonunu falan bilerek hesaplayarak hali hazırda çalışıyor. Modern 3 boyutlu grafiğini temelinde olan bir şey bu. 

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Nasil mumkun gozukmuyor? RT unitesi oyuncunun gozunden sahneye ray cekerek neyin ne kadar gozuktugunu tespit edemiyor mu? 

 

AI konusunda yaniliyorsunuz, soylediginizden daha fazlasini yapiyor. Self driving car’larda kullanilan donanima TV’de kontrast ayarlayan cip muamelesi yapmanin geregi yok.

 

Modern 3D grafigin temelinde kameranin nerede oldugu olabilir ama her nesil o kameraya sahnedeki objelerin ne kadarinin gozukmedigini tespit edip oralarini kaplamamayi saglayacak optimizasyonlar yapmak icin bir yerlerini yirtiyorlar. Acin bakin Half-Life 2’de oyuncunun elinde tuttugu silah modellerine, kameraya gozukmeyecek bolumu silinmistir, oyun buralarda gereken dokular olmadan geliyor “nasil olsa oyuncu gormeyecek, performans dusmesin” diye kafadan siliyorlar cunku “ya onun gozukmedigi otomatik tespit olur” diye bir durum yok. Adamlar haritalarda bsp’lerle visibility’yi gomulu olarak endeksleyip “oyuncu suraya gelmeden suralari yukleme” demeyi kesfedene kadar oyunlar kutu kutuydu. Sonrasinda bile oyuncunun durdugu odadan baktigi acida onundeki duvarin arkasinda gormedigi iki oda daha var diye fps dusecegi icin harita tasarimini labirent gibi yapiyorlardi. 

 

Gozden ray cek, objenin ne kadarinin kameraya gorunur oldugunu tespit et, gorunmeyen bolumleri cizme (sadece ekran disinda kalan bolumleri degil, baska objenin arkasinda kalan bolumleri, objenin kameraya donuk olmayan bolumleri...), bir onceki kareye gore icerigi degismeyen yerleri yeniden cizme, gorunen ve degisen bolumlerde neresinin INT8 ile, neresinin FP16 ile, neresinin FP32 ile cizilmeye ihtiyac duydugunu deep learning ile gomulu gelen algoritmadan suzerek tespit et, sadece agir yuk gerektiren yerleri agir yukle ciz, ray’in carptigi ucgenin kameraya acisina ve uzakligina bakarak mipmap seviyesi ve filtreleme seviyesine kadar optimize et, minimum goruntu kaybi ile maksimum performans elde et.

 

Eger (1) gercek zamanli ray tracing yapacak bir donanim, (2) o ray tracing’in 10 giga ray ile olusturdugu goruntuyu analiz edip tamamlayarak gercek zamanli denoise edebilecek ikinci bir donanim, bu mimaride ek donanim uniteleri olarak mevcutsa bu ustteki de yapilabilmeli. Yoksa siz eldeki cuda cekirdeklerini shading yerine bu hesaplamalara harcarsaniz tabi astari kendinden pahaliya gelir. Usttekilerin bir kismi farkli yontemlerle bir yere kadar yapilabiliyordu, eyvallah. Simdi farkli bir sekilde yapilabilecek ve burada bir potansiyel var.

 

Bu ustteki sadece benim su an akil edebildigim kadari. “Bunlarla performans 7 kart artacak” gibi ucuk bir iddiada bulunmadim, “bu uniteler yeni optimizasyon kapilari aciyor” dedim, burada reddedecek bir sey yok. ”Mevcut optimizasyonlar ustune cok performans artisi getirmeyecektir” dersiniz, “olabilir, sonuclari beraber gorelim” derim. Ama sanki ortada yeni bir donanim yokmus gibi davranmayalim.

epi tarafından düzenlendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

2080 Ti çok pahalı, buradaki çoğu kişinin alım gücünün üzerinde olduğunu düşünüyorum fiyatının.

 

Yani buraya bu parayı bağlama sırası gelene kadar çok daha öncelikli yerlere harcanır, herkesin kendi fikri tabii.

 

Bu kadar egzotik bir kartla ilgili bir de böyle haberler alacak olan varsa da bu kadar zorluğa rağmen caydırıcı niteliği yüksek.

 

https://www.digitaltrends.com/computing/tomb-raider-dev-responds-to-rtx-2080-ti-performance-concerns/

 

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

@epi

Valla hocam bu mevzu kolay kolay bitmez ama ben daha fazla uzatmayacağım.

 

HL2 örneği için. O günün sistem kaynakları ve mevcut kütüphaneleri ile günümüzdeki donanım gücü ve modern kütüphaneler arasında dağlar var. Hem günümüzde öyle 3-5 poligon için fps görünümünde silahların görünmeyen tarafını hiç yapmama gibi bir durum yok çünkü "culling" denilen bir yöntem var. Ayrıca gelişmiş animasyonlar nedeniyle artık eldeki silahların görünmeyen yerleri de pek yok ama hala benzer optimizasyonlar bölüm tasarımlarında yapılmaya devam ediyor. Gerçekten bir duvarın arkası asla ve asla görünmeyecekse yapılmıyor, yapılmayacak.

 

HL'dan bu yana köprünün altından çok sular aktı.

 

http://archive.gamedev.net/archive/reference/programming/features/occlusionculling/index.html

https://docs.unity3d.com/560/Documentation/Manual/OcclusionCulling.html

 

https://www.computerhope.com/jargon/b/backface-culling.htm

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş
1 hour ago, epi said:

Usttekilerin bir kismi farkli yontemlerle bir yere kadar yapilabiliyordu, eyvallah. Simdi farkli bir sekilde yapilabilecek ve burada bir potansiyel var.

 

Bu ustteki sadece benim su an akil edebildigim kadari. “Bunlarla performans 7 kart artacak” gibi ucuk bir iddiada bulunmadim, “bu uniteler yeni optimizasyon kapilari aciyor” dedim, burada reddedecek bir sey yok. ”Mevcut optimizasyonlar ustune cok performans artisi getirmeyecektir” dersiniz, “olabilir, sonuclari beraber gorelim” derim. Ama sanki ortada yeni bir donanim yokmus gibi davranmayalim.

 

"Soyle optimizasyonlar var, bunlar bu unitelerle daha iyi yapilabilir" dedikce "oyle optimizasyonlar zaten var" dediginiz icin gercekten bu mevzu kolay kolay bitmez :mrgreen:

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

@epi

 

Optmizasyon filan değil doğrudan RT 'i kullanabilecek oyun motorları gelene kadar ki bu 2-3 yılı bulur, nexgen konsollarda da 1080p ve 2K 60fps hedeflenerek 4K ise 30-60fps karışık hedeflenebileceği için 2-3 yıl sonra oyunlarda hassas ve doğru ışıklandırma görürüz, o vakte kadar elinde 1080/1080Ti olan rahatlıkla idare eder bana göre. belki cyberpunk vb türden oyunlardaki detaylar sebebiyle 2000 serisi ön plana çıksada bu fiyatlarla kimse bakmaz.

 

Dolar kuru 2-3TL arasında olsa elimden en az 4-5tane 2080Ti geçerdi ama şu durumda 1 tane 2080'i bile görememe durumumuz var. önce minning şimdi dolar sayesinde orta seviye ekran kartları bile sistem parasına yaklaştı.

 

Mevcut oyunlarda optimizasyon konusunda fikrim şu, tamamen olmasada muhtemelen kafadan 1 yıl bu kartların asıl özelliklerini kullanamayacağız, hakkını verenlerde ise performans kaybı hissedilecek ve o zamanda elde edilenin verdiği hissiyat yeterli olmayacak. Belki AMD mevcut durumuyla ummadık taş baş yarar hesabı VEGA +%50 hızlı bir kartla karşımıza çıkar ve nvidia'nın bir tık altında fiyat vererek performans isteyenleri kendisine çeker Nvidia'yı ateşler de birşeyler olur diye düşünüyorum. yoksa  zor :2no:

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Yorum yazmak için üye olun veya giriş yapın

Yorum yazmak için üye olmanız lazım

Üye ol

Üye olun ve sitemizin tüm avantajlarından yararlanın!


Yeni bir hesap oluştur

Giriş yap

Zaten üyemiz misin? O halde giriş yap


Hemen giriş yap
1 1

  • Bu sayfadaki üyeler   0 üye

    Şu an bu sayfayı görüntüleyen bir üye yok