Nvidia GeForce RTX/GTX Turing Ailesi (2018-2019)
1 1

724 posts in this topic

İndireyim dedim, indirme sayfasında "bu sürücüyü kurmadan önce geri yükleme noktası oluşturmanızda fayda var" gibi bir ibare var, indirmeye tıkladım 404 verdi sunucusu. Bir de etkinliğe yetiştireyim diye aceleye çıkartmış olmaları neredeyse kesin bunu.

 

Daha şimdiden güven vermedi bana, bu sürümü pas geçip bir sonrakileri kullanmaya karar verdim.

Share this post


Link to post
Share on other sites
20 hours ago, wazzap said:

Integer Scaling gelmiş ama sadece turinglere :facepalm:

 

AMD yakında Navi'nin orta segmentini piyasaya sununca diğer alt seriyede bu özelliiği süper yenilik olarak getirirler,  INTEL'in Xe graphics  adı altında getireceği kartların vereceği performansa göre  hem AMD hemde Nvidia'dan dişe dokunur filan değil komple damağı etkileyen:zuh:  kartlat görmemiz mümkün.  Web'de geçen testlerde dahili gen11 ile ciddi gelişme kaydettiği belirtilmiş, raja ve ekibi masasütüne ciddi bir ürün ailesi ile ürün çıkarırsalar harika olur.

Share this post


Link to post
Share on other sites

Nvidia bu arada sessiz sedasız öve öve bitiremediği donanımsal DLSS'i çöpe atıp AMD'nin yeni kartlar ile birlikte duyurduğu sharpening tekniğinin bir kopyasını en son sürücülere ekledi.

Share this post


Link to post
Share on other sites
5 saat önce, Whooosh said:

Nvidia bu arada sessiz sedasız öve öve bitiremediği donanımsal DLSS'i çöpe atıp AMD'nin yeni kartlar ile birlikte duyurduğu sharpening tekniğinin bir kopyasını en son sürücülere ekledi.

 

DLSS, "At yalanı, seveyim inananı" deyiminin IT jargonundaki kısaltmasıydı

 

Süperbilgisayarda çalıştıracağız da, yapay zeka analiz edecek de, kayıpsız upscaling yapacağız da... Yersen.

Share this post


Link to post
Share on other sites

AMD x86 islemcileri, saglam GPU teknolojisi, chiplet tasarimi ile APU’larda su anda teknoloji lideri. Intel GPU ureterek arayi kapatmaya calisiyor. Nvidia vaktiyle Intel’i Noel babanin kucagina oturup “a GPU” dilerken karikaturize etmisti, yakinda biri nvidia’yi ayni kucakta “a CPU” derken cizebilir.

 

Bu tabloya bakinca islemciler arasinda yuksek hizli baglanti protokolune, chiplet tasarimina ve APU’lara oncelik veren AMD’nin ovunmesi icin gercek sebepler var. 

 

Yani bu videodaki gibi uydurma basliklara ihtiyac yok. Tensor islemcilerinin zamanla yapabileceklerine camur atmadan da AMD ovulebilir. Sharpening ve DLSS’in bir arada kullanilabildigi, DLSS’in bir yere gitmedigi dusunuldugunce sacma bir baslik olmus (videoya click lazim anlasilan).

 

Benim merak ettigim, bu yeni “Integer scaling” modu 2D oyunlar icin dusunulmus ama “1080p oyunu 4K monitorde oynayinca camurlasiyor, halbuki 4:1 pixel orani ile duzgun scale olmasi lazim, niye boyle” diye sikayet eden ve 4K monitorlerden uzak duranlarin derdine de merhem oluyor mu? Oluyorsa onu incelesinler de bir ise yarasinlar.

 

Gordugum kadariyla AMD’nin sharpening filter’i DX11’de calismiyor, nvidia’nin cozumu calisiyor, bunu alip “hain nvidia” basligina cevirmeye kasmak yerine yeni driverlari inceleyen adam gibi bir video yapabilirlermis.

 

Edit: linkteki yorumlar da benzer seyler soylemis. Ek olarak dusuk latency modunun yuksek kare hizindaki etkisi ile 60fps’deki etkisini degerlendiren bir inceleme ilginc olur ama onu yapmak zor olacaktir, high speed camera’lar, baska gecikmesi olmayan yazilim ve donanimla hazirlanmis sistem ve zaman lazim.

Edited by epi

Share this post


Link to post
Share on other sites

Nvidia Amd'nin anti-lag'ını ve sharpening filtresini birebir kopyalamış fakat bu ne ayıp ne de yanlış çünkü AMD bu iki teknolojiyle çok doğru bir şey yaptı ve Nvidia mühendislerinin bunu biz niye düşünemedik diye saçlarını yolduklarına eminim. Zaten Nvidia'nın bu iki tekniği kopyalaması bu iki tekniğin de çok iyi olduğunun kanıtı.

 

Arayüz konusunda Nvidia çok daha başarılı, sharpening filtresini oyun içinden açıp kapatabiyor ve % cinsinden ayarlayabiliyorsunuz, bunlar AMD'de yok. Fakat şu bir gerçek ki AMD Sharpening'i Nvidia'nın DLSS'ine alternatif olarak lanse etti ve hem görüntü kalitesi hem de performans olarak daha iyi olduğunu da gösterdi. Nvidia'nın DLSS alternatifi bir tekniğe destek vermesi DLSS'i öldürdü şeklinde gayet yorumlanabilir çünkü DLSS kullanmak için hiçbir neden kalmadı.

Share this post


Link to post
Share on other sites

https://www.youtube.com/watch?v=aZS3LH7hHsc

Videodan anlamak mumkun olmuyor, isiklandirmanin tepkisinde bir gecikme hissi var mi diye real time calistirarak kontrol etmek lazim. Onceki karelerden bilgi alarak calisan bir teknoloji oldugu icin yasanan artifact'larin onune gecmek icin boyle yapilmis olabilir. Ilk real time ray tracing uygulamalarinda patlamalarda falan anlik bozulmalar yakalamak mumkundu, onun yerine isiklandirmanin etkisi algoritma yeterli bilgi toplayana kadar biraz buffer'lansin demis olabilirler.

Share this post


Link to post
Share on other sites

PS5 (Amd), Intel GPU, nvidia'nin yeni nesli falan derken 2020 senlikli olacak. Hepsi ray tracing donanimi ile geliyor. Daha once de yazdigim gibi, nvidia'nin yeni tasariminda RT core sayisinin katlanmasini bekliyorum.

Share this post


Link to post
Share on other sites
5 saat önce, epi said:

PS5 (Amd), Intel GPU, nvidia'nin yeni nesli falan derken 2020 senlikli olacak. Hepsi ray tracing donanimi ile geliyor. Daha once de yazdigim gibi, nvidia'nin yeni tasariminda RT core sayisinin katlanmasini bekliyorum.

 

Salt miktar değil de verimliliğin ciddi biçimde artacağını, hatta yöntemin değişebileceğini düşünüyorum ben. Mesela tessellationda amd ve nvidia'nın benimsediği yöntem gibi.

Share this post


Link to post
Share on other sites

Ray tracing'den geri dönüş yok, illaki RT olacak ama RT işinde ipler AMD'nin elinde.

Nvidia isterse RT performansını 4'e katlasın anca quake 2 Yi Minecraft'ı falan 4K RT oynarsınız.

Konsollara RT gelene kadar RT'ye yatırım yapılmaz.

Edited by Whooosh

Share this post


Link to post
Share on other sites

Rt için millet physx e benzetiyor ama bence değil, aynen bu artık gider, amd bir şekilde bu kervana katılacak SS kuralı ile.

Amd demişken hala sacma sapan surucu sorunları ile uğraştırdığı için lanet olsun diyip tekrar nvidia dönesim var, ama muadili biraz iyi 2080 ve ti var, 2080 pek mantıklı değil ama almışken tepe modeli almak istedim, derken bu yeni ampere ufukta görününce pek mantıklı durmuyor tabi. 

Son olarak konsol dan ziyade yeni gelecek ampere ciddi bir ivme yakalarsa rt core/performans olarak, bayağı ses getirir heyecan yaratır gibi.

Share this post


Link to post
Share on other sites

https://youtu.be/atcKO15YVD8

Yapay zeka icin kullanilan donanim birimlerinin bu nesilde oyun donanimina da eklenmesi, machine learning tabanli fizikler ve grafikler ile anlam kazanacak.

100 kat guclu (100 kat kompleks) donanim yapilana kadar beklemek istemiyorsan 100 kat daha etkin algoritmalari calistiracak ozel donanim yapacaksin. GPU tasariminin felsefesi ilk gunden beri bu oldu.

Ilk piyasaya geldiginde “yazilim destegi az” denecek cunku olmayan donanimin yazilim destegi yoktu haliyle. Tavuk-yumurta hesabi. Bu da GPU’larin tarihinde standart oldu.

Sen adami oturtup 3D scan’lersen, ortaya cikan modeli oyun motorunun kaldiracagi doku cozunurlugu ve poligon sayisina indirgersen, buna motion capture ile elde ettigin animasyonu uygularsan bu neslin en iyi grafiklerini elde ediyorsun. Bir yapay zekaya “bak o grafigin gercek hayattaki karsiligi bu video” diye adamin binlerce videosunu izletirsen oyun grafiginden gercek hayattaki karsiligini sentezlemeyi ogrenmis bir yapay zeka yaratman teoride mumkun. Bu ikisi birden donanimda calistigi zaman video gibi goruntuyu gercek zamanki sentezler hale gelebilirsin, gelecek  nesil grafiklerin bu sekilde olusturulmasi teoride mumkun.

RTX serisi icin basindan beri “RT unitelerini, ray tracing’i bosverin, bunlarin asil olayi tensor core’lar” diyorum. Ama bunlarla yapilabilecekleri gormek icin once donanim elimizde olacak ki onu hedefleyen yazilim arge’si mumkun olsun. “nvidia reshade’i driver seviyesinde desteklemeyi planliyor”, “nvidia rtx remaster yaklasimini baska oyunlara da uygulamayi planliyor” haberleri yarin “yapay zekamiz sayesinde ayni oyun nvidia donaniminda boyle farkli gozukuyor” haberlerine donusurse sasirmamali.

Cep telefonlari machine learning optimized donanimla gelirken gelecek nesil konsollarda bunlarin yer almamasi tuhaf olur. Onumuzdeki 5 yilin olayi yapay zeka tabanli grafikler olursa kalitede etkisi genellesir ama konsollar desteklemezse limitli olur.

Guzel yani training/learning isleminin guclu workstationlarda onceden yapilip driver’da gomulu gelmesi (ve guncellenebilmesi). Oyuncunun makinesindeki donanimin sadece bu hazir algoritmayi calistiracak kadar gelismis olmasi gerekiyor.

Edited by epi
rammstein likes this

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!


Register a new account

Sign in

Already have an account? Sign in here.


Sign In Now
1 1

  • Recently Browsing   0 members

    No registered users viewing this page.