Unreal Engine 5 (early access video)
1 1

Bu konuda 50 mesaj var

Bu kadar yüksek poligon içeren objeleri bir oyun motorunun sorun olmadan işleyebiliyor olması çok başarılı. Ancak geliştiriciler için bazı sorunlar var. Örneğin daha önceden hep optimizasyona dayalı çalışıldığı için sahnedeki modelleri değiştirmek, tamamen kaldırıp yenilerini eklemek vs. gibi işlemler yeteri kadar poligonu olan objelerle çabucak yapılabiliyordu. Şimdi o yüksek poligonlu modelleri sahneye almak bazen dakikalar sürüyor, ki bu tür işlemleri sık yapıyorsanız veya environment tasarımıyla çok işiniz varsa bi noktadan sonra işkenceye dönüyor. Tabii şu an motor early access aşamasında, belki (umarım) ilerde daha da hızlanır.

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş
13 saat önce, SEP said:

Bu kadar yüksek poligon içeren objeleri bir oyun motorunun sorun olmadan işleyebiliyor olması çok başarılı. Ancak geliştiriciler için bazı sorunlar var. Örneğin daha önceden hep optimizasyona dayalı çalışıldığı için sahnedeki modelleri değiştirmek, tamamen kaldırıp yenilerini eklemek vs. gibi işlemler yeteri kadar poligonu olan objelerle çabucak yapılabiliyordu. Şimdi o yüksek poligonlu modelleri sahneye almak bazen dakikalar sürüyor, ki bu tür işlemleri sık yapıyorsanız veya environment tasarımıyla çok işiniz varsa bi noktadan sonra işkenceye dönüyor. Tabii şu an motor early access aşamasında, belki (umarım) ilerde daha da hızlanır.

O durumların nispeten aşılması için sanırım area modunda belli bir alanı göster vb gibi bir durum eklemişler tanıtımda öyle gördüm. İllaki vardır o işlemler içinde işi hızlandırdıkları birşeyler.

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

https://www.youtube.com/watch?v=WU0gvPcc3jQ

  • Tensor core’lari kullanan AI tabanli bir post processing ile bunu gercekten ayirt etmesi zor hale getirmeleri mumkun. Onu da yapacaklari gun bence sandigimizdan daha yakin.*
  • Nanite geometri, hardware ray tracing, gercek zamanli isiklandirma, metahuman modeller falan derken konsolda yeni neslin limitlerini gostermisler.
  • 20 yil oncesinin film CGI'indan iyi. Kusursuz degil ama o kusurlarin cozulmesi icin 20 yil daha beklemek gerekmeyecek.
  • Ayni demo PC’de daha temiz (az noisy) gozukur ve high frame rate calisir. TSR yerine DLSS'le burada gordugumuzden daha iyi (temiz) gozukur. Nvidia donaniminda ray tracing de daha hizli ve temiz yapilir. Ic cozunurluk de daha yuksek tutulabilir ve/veya 60fps yakalanir. 2022 sonu PC'lerde daha da cosar.
  • Uncanny valley Metahuman'lar yerine Robo Recall'daki robotlar veya Half Life'taki gibi maskeli askerler ile bir demo hazirlasalar gercekten ayirmak zor olacak. Robotlar nanite ile cilgin detayli hazirlanabilir cunku bukulmeleri gerekmiyor, rigid yapidalar.

Nanite super. Geometri pop-in'den nefret ediyordum, 30 yildir Level of detail ve tesselation'i kotaramiyorlardi, videolardan gorebildigim kadariyla cozulmus gibi gozukuyor. Simdilik eksik yani rigid yapida olmasi. Mesela Valley of the Ancient UE5 tech demosundaki dev robot da nanite kullandigi icin cok detayliydi ama egilip bukulen kas gibi bir yapisi yoktu. Oyle olunca mesela metahuman'lar nanite degil. Simdilik. 

Lumen guzel. Oyunlarin her platformda gercek zamanli isiklandirma icin tasarlanabilecek olmasini saglamasi acisindan faydali. Fakat "vay be, gercek zamanli isiklandirma yazilimdan yapilabiliyormus demek, nvidia bizi yiyormus" demeye hevesli arkadaslar cok da heyecanlanmasin. 

  • "Software"den kasit eskisi gibi CPU'da calisiyor degil, GPU'nun programlanabilir shader birimlerinde calisiyor. Daha dogrusu calisiyordu, degisti.
  • Matrix Awakens demosunda onu da geride biraktilar, artik donanimsal ray tracing uzerinden calisiyor. Yani nvidia'nin yoluna geldiler aslinda.
  • nvidia bu isi daha hizli ve daha temiz yapiyor. Goruntude daha az bozulma var, performans daha yuksek.

Ayni durum TSR (temporal super resolution) icin de gecerli. DLSS daha temiz, daha performansli.

Nvidia'da denoising ve super resolution gibi AI tabanli isleri yapacak Tensor core'lar oldugu icin bu isi daha iyi yapiyor (ya daha temiz goruntu, ya daha performansli, ya da ikisinden bir sepet). Ray tracing performansi da daha yuksek oldugu icin denoising oncesi malzeme de zaten daha cok veri iceriyor (daha duzgun). Neticede UE5 demolarinda hareket eden golgelerin arkalarinda biraktigi kir, genel goruntude "film grain" gibi gozuken ama aslinda ray tracing denoising'in yeterince temiz olmamasindan kaynaklanan kir nvidia demolarinda daha az. O kadar kir beni bozmaz diyorsaniz nvidia donaniminda elde edeceginiz fps daha yuksek. 

UE5 guzel, sadece tek donanimda calisacak sekilde degil, genel olarak calisacak sekilde oyun tasarimina musade ediyor. Ayni icerik nvidia'da calistiginda daha temiz goruntu, daha yuksek performans gorulecek. Multiplatform tasarlanacak oyunlarin minimum donanimda da gercek zamanli isiklandirma ve yuksek detay seviyesi hedefleriyle hazirlanacak olmasi "bu RTX'i kullanacak oyunlar gelene kadar kim ole, kim kala" endisesine merhem oldugu icin UE5 PC icin de iyi.

Bu yil PS5'te, XB'da gosterirler, tanitim yaparlar. Seneye PC'de goruruz. Bu sehir sanirim UE5 editoru ile gelen bedava icerigin parcasi olacak. Yani videoda 8. dakikadan sonrasini izleyip "bu kalitede GTA gibi bir oyun olsa da oynasak" diyorsaniz muhtemelen UE5 ile mod hazirlayip kendisine isim yapmak isteyen arkadaslarin hazirlayacagi icerikle o tada kosmak mumkun olur.

Hem kaliteli icerik uretebilecek teknolojiyi her platformda oldugu kadar calisacak sekilde hazirlamislar, hem de icerigi hazirlayacak arkadaslara baslangic noktasi olarak koca bir sehir sunmuslar. Daha ne olsun.

 

*Grafiklerde bir devrimin esigindeyiz ama millet farkinda degil. Hala "RTX gerekli mi" videolari yapiyorlar.

Gercek zamanli cizilen grafigi 720-1080p ve dusuk cozunurluklu dokularla ama yuksek hizda hazirlayan, onun uzerinden yapay zekayla 4K ve fotograf gibi detayli halini cikartan bir oyun gormemiz cok uzak degil. Adamlar zaten Death Stranding gibi bir oyun icin aktoru scan edip 3D modele cevirerek, motion capture, performance capture ile animasyona cevirerek oldugu kadar oyuna aktariyor. O oyun ici goruntuyu girdi olarak tanimlayip, aktorun gercek hayattan alinma goruntusunu cikti olarak tanimlayip network'u egitmesi gerekiyor. Bugun DLSS icin de ayni mantikla, dusuk cozunurlu goruntuyu girdi, yuksek cozunurluklu goruntuyu cikti olarak gosterip bunu gordugunde bunu ver dedikleri bir neural network'u egitiyorlar. Onun bir adim otesi iste. Tensor core'lari super resolution icin degil, goruntuyu daha gercekci hale getirmek icin kullanacak bir algoritma. CGI goruntuye bakip bunun gercek goruntuye benzemesi icin biraz daha soyle olmasi lazim diyerek degistirerek ekrana verecek. Baba kameralarla o goruntuyu cekip, ayni anda motion capture'u de yapacak teknoloji varsa network'u egitecek veriyi toplayacak teknoloji var demektir. Sonrasi o networku az kalite kaybiyla gercek zamanli calisacak kadar hizli hale getirmek.

Intel'in bu konuda calismalari var, basit de olsa gercek zamanli calisiyor.

(1) Insan teni hala tam olmuyor, (2) hala bazen goruntude kusurlar var, (3) hala cok yaklasinca doku detay seviyesi gercek hayat kadar kadar yuksek degil seklindeki butun eksikler bu sekilde temizlenebilir.

Neticede, 2022 sonu gelecek yeni nesil nvidia kartlarda ve sonrasinda, bu tarz UE5 icerikli bir oyunu alip DLSS ile geneli daha temiz, RTX ile isiklandirmasi daha temiz goruntu cikartip bu tarz yapay zeka tabanli bir son asama uygularlarsa "photorealism" hayali gercek olacak.

epi tarafından düzenlendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Unreal Engine Metahuman, gercek zamanli motion capture:
https://www.youtube.com/watch?v=uPpYi9ozsJ8

 

Ablayi suraya alalim:

https://www.youtube.com/watch?v=2i8HenF-zMk

 

Onu su sehrin kosesine koyalim:

https://www.youtube.com/watch?v=WU0gvPcc3jQ

 

Evin ici de soyle olsun:

https://www.youtube.com/watch?v=2Yc7w-PJ-Jo

 

Veya boyle:

https://www.youtube.com/watch?v=pnSSYib795s

 

Motion controller sayesinde kamera hareketi de son videodaki gibi olsun. Isik, kamera, motor...

Kamera sehrin tepesinden yavas yavas sahile iner, sahilde eve girer. icerisi arch viz dosenmistir, evde bize sirti donuk olan hanim kameraya doner, yuz ifadesi gercektir, ses ASMR...

 

Only fans VR.

epi tarafından düzenlendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

UE5
https://www.youtube.com/watch?v=-x0orqFrHGA

• Lumen hardware ray tracing vs software ray tracing (geldigi ayarlarla hardware daha kaliteli grafikler sunuyor ama performans daha dusuk)
• PC vs konsol (konsol oradan buradan kisiyor)
• CPU performans limiti (20 thread %50 saat hizi olacagina 10 thread %100 saat hizi iyi. Bir yerden sonra yeni cekirdegin bir faydasi olmuyor. Saat hizinin faydasi oluyor)

 

Baska videolarda trafik ve yayalari kapatinca 40fps'den 60fps'e yukseldigini gormustum. Butun bir sehri bir anda simule etmenin islemciye yukunu daha cok cekirdege dagitmayi henuz kotaramamis olabilirler. Zamanla iyilesebilir veya nihai oyunlarda islemciye yuklenen icerik biraz kisilir, optimize edilir.

jackjoker beğendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Unutmadan, bunu da bayadır bekliyorum ancak çok bir ilerleme olmadı maalesef, Black Myth: Wukong. Bu da güzel görünüyor, Unreal Engine 5 bu da.

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Mesh to Metahuman plugin'iyle istedigin modelleri tasimak mumkun:

https://www.youtube.com/watch?v=MijEKbawToo

 

UE5 ile bedava gelen megascan icerigini ekleyerek RE4 veya Dino Crisis gibi oyunlarin fan remake konsept videolari mevcut:

https://www.youtube.com/watch?v=bgeLn-HGIMU

https://www.youtube.com/watch?v=d09WYNZFRpI

 

Jedi Knight 2 VR remake'i calismasi mevcut:

https://www.youtube.com/watch?v=76XmdfeWVVk
 

Bu sekilde mesela Arnold'in Duke Nukem'i oynadigi yeni bir remake'i UE5'te yapmak icin tek gereken sey programcilik olabilir. 

Orijinal icerigi alip UE5 uyumlu sekilde rule based script'lerle convert ederek UE5 icerigini generate etmek mumkun olursa tek kisilik studyolardan boyle isler gelebilir.

 

Nvidia/Intel/Amd'nin driver seviyesinde AI tabanli son bir mudahale ile bu oyun kalitesindeki goruntuyu alip gercek hayattan ayirmasi zor hale getirmesi mumkun ve bunu gercek zamanli yapabilirler.

Ray tracing denoising ve DLSS sonrasi goruntu isleme yerine noisy ve low-res goruntuyu alip tek donusturme uygulayarak bunu yapabilir.

Gereken sey:

1. GPU'da yeterince performansli tensor core'lar

2. Onlarda calisacak AI'i nvidia'nin (a) dijitize edilmis icerik ve (b) dijitize edilen modelin gercek hayattan alinma goruntusu ile egitip a'yi b'ye donusturecek sekilde gelistirmesi.

Neden bu yontem? Cunku insan teninin isiga verdigi tepkiyi dogru hesaplayacak bir shader 20x performans gerektirirken, UE5 goruntusunu alip "aha tanidim, bu insan teni, soyle isimasi lazim, boyle gozukur" diye donusturen bir neural network sadece 2x performans gerektirebilir.

 

Bu sekilde tek kisilik bir studyonun hazirladigi icerigin "Arnold Duke Nukem'i oynuyor" seklinde film kalitesinde bizde calismasi mumkun. Kenarina geldik.

Zamanla onun herkeste, her yerde calismasi mumkun.

 

PS: Project M gibi icerige bu sekilde AI processing uygulanirsa benim bildigim ortalama insan bununla hazirlanmis .orno izler.

https://www.youtube.com/watch?v=c9WGx4nHbLc 
(Project M)

Mekanlar oyundan, karakterler oyundan... Animasyonlari videodan capture eden yazilimlar da mevcut. Sesler de videodan. Eski oyunlarin UE5 remake'leri gibi, eski videolarin da UE5 remake'lerini goruruz. Deepfake yerine Mesh to Metahuman ile istedigin unluyu de koyabilir hale getirirler. Bugun VR lazim degil diyenler yarin karsisinda gercek boyutuyla, derinligiyle agzi acik izler, "hangi lidar'li telefonla baldizin mesh'ini capture edebilirim" diye aramaya baslar.

epi tarafından düzenlendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş
16 saat önce, epi said:

"hangi lidar'li telefonla baldizin mesh'ini capture edebilirim"

Yani teknoloji ne kadar gelişirse gelişsin, iş dönüp dolaşıp "baldız baldan tatlıdır"a bağlanıyor...

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş
4 hours ago, Najaz said:

Yani teknoloji ne kadar gelişirse gelişsin, iş dönüp dolaşıp "baldız baldan tatlıdır"a bağlanıyor...

Esyanin tabiatindan kacis yok :baba:

TiesTorN beğendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

https://www.youtube.com/watch?v=zSmN7aXSd5Y

  • UE5'te metahuman anime etmis.
  • Ona deepfake uygulamis.

(deepfake gercek zamanli degil ama bunu soylememis)

 

Bunun gercek zamanlisini dusunun. Evet deepfake'ten daha hizli calismasi lazim ama cok daha az is yapacak.

  • Deepfake gibi 2D goruntuye bakip hatali tahminler yapmayacak, neyin ne oldugunu cozmek zorunda olmayacak. 3D depth bilgisi, isigin nereden geldiginin bilgisi, animasyon bilgisi vs zaten oyun motorunda mevcut.
  • Modeli transforme etmesi gerekmeyecek, deepfake gibi butun yuzu degistirmeyecek. Model mesh to metahuman gibi hazirlanmis olacak.
  • Sadece tenin isiga verdigi tepkiyi ve kivrimlarin hareketlerini, detaylari daha gercekci hale getirecek.

GPU'lardaki yapay zeka birimlerini bunu yapacak sekilde kullandiklarinda son bir sicrama yasayacagiz. Sadece insan yuzu degil, materyel isiklandirmalari da, daha az plastik, daha cok gercek hayat gibi olacak.

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Su tarz film kalitesi photorealistic ortamlarda:

https://www.youtube.com/watch?v=_R-tN9l6onQ 

Gaz maskesi ve uniforma vs. ile uncanny valley'e dusecek yerleri saklanmis karakterler arasinda hareket eden bir robotu uzaktan kumanda ettiginiz ve o robottan gelen kamera goruntusunu monitorunuzde gordugunuz bir oyunun gercek hayattan ayird edilmesi zor kivamda hazirlanmasi mumkun.

Ayni ortama Street Figther tarzi stylized veya Lego Builder's Journey tarzi yari stylized karakterlerin girmesiyle gercek ile fantezinin birbirine karistigi hikayeler hazirlamak icin gereken butun teknoloji insanligin elinin altinda.

Karakterlerin animasyonlari, tepkileri, mikrofon ile onlara soylediklerinize cevaplari ve ifadelerini kontrol eden yapay zekanin kalitesini iyi kotaran efsane bir oyunun cikmasi icin eksigimiz donanim, ara yazilim, yetenek veya butce degil, zaman.

Gercek ortamlara CGI karakterler ekleyen filmler gorduk. CGI ortamlara gercek karakterler ekleyen filmler gorduk. Vasat grafiklerle interaktif icerikler gorduk. RPG tarzi ana konusu olan ama genel hatlari sizin secimlerinizle sekillenebilen oyunlar gorduk. Procedurally generated haritalar ile teoride sonsuz icerik sunan oyunlar gorduk. Cumlenizi tamamlayip devami makale yazan, size sesle cevap veren, yazmaya calistiginiz programi tarif ettiginizde onu koda cevirecek kadar konuya hakim interaktif yapay zekalar gorduk. Hepsinin bir araya geldigini henuz gormedik.

Senaryolu ama dinamik hikaye icinde tamamen interaktif yapay zeka ile yonetilen, gorsel iceriginin tarzi teknik imkanlarla sinirlanmamis, daha once sadece hayal edilmesi mumkun olan ama benzeri gorulmemis icerik. Eskiden sadece hayaldi. Artik imkan dahilinde.

Tasarimina son 2-3 yilda UE4 ile baslanip yakin zamanda UE5'e tasinmis, photogrammetry tabanli model/doku kutuphaneleri ile guncellenmis icerigin RTX 40x0 kullanan tasarimci makinelerinde son haline getirilmesi ile ilk orneklerinin 2024-2025 gibi piyasaya gelmesi mumkun olabilir. Omrumuz yeterse goruruz.

Gencler telefonuyla sehrin sesini kaydedip sample olarak muzigine remixlemekten, telefonun lidari ve kamerasiyla sehrin objelerini capture edip sanal gerceklik eserlerine remixlemeye terfi eder.

Bir sonraki nesilde bu goruntuyu input olarak alip output olarak verecegi gercege ozdes goruntuyu hazirlayacak sekilde sanal ve gercek goruntulerle egitilmis neural network'ler de gercek zamanli calisacagi icin ayni icerik son esigi de asar. Gozun limitlerinin algilayabilecegi testleri gecebilecek VR setleri icin gerekli lazer teknolojisi de son kullaniciya ulasabilir hale geldigine gorsel icerikte gercekle sanal arasindaki cizgi tamamen kaybolur.

Gozun gordugune beyin inaniyorsa, "gecen gun oradaydik, soyle olmustu" diye hafizaya yaziliyorsa, olasi senaryolar arasinda degerlendirilmesi icin gecmiste gorulenler klasorune ekleniyorsa, bu icerikte yasanan deneyim yarinin kararlarina yon verir.

Tamagotchi'nin Pixar sevimliliginde hazirlanmis halini Pokemon Go gibi telefonuyla gercek mekanda yakalayip, AR ile etrafinda gorup, VR ile dizine oturtup, ekranda cama cikarak karsisina gecip, telefonunda gezdiren cocugumuzun kulagina o Tamagotchi'nin fisildayacagi mesajin "istersen sen de ibine olabilirsin" olmasindan endise ile "din, dovlet, dabanca" olmasina karar vereceksek o da bu donemde sekilleniyor.

Gecis donemi. Farkli gercekliklerin wave function'lari collapse ediyor.

Belli bir icerige abone olarak oyumu o gelecekten yana kullaniyorum.

Sanat bu.

epi tarafından düzenlendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Dejavu mu yaşıyorum, bilmiyorum ama sanki bununla ilgili bir şey görmüştüm.

 

whoosh atmış zaten, 1.5 yıl olmuş. :D

5.1 upgrade olmuş tabi.

wazzap tarafından düzenlendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

evet izlemiştim o videoyu bi kaç gün önce, gerçekten hayranlıkla izledim...

bence bütün oyunların ue kullanması gerekiyor artık, diğer tüm motorlar bunun yanında hikaye...

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Peki UE5'le birlikte, bu RT olayı yalan mı oldu yani? Zira anladığım kadarıyla UE5 daha farklı bir ışıklandırma sistemi kullanıyor.

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

 

On 4/20/2022 at 0:32 PM, epi said:


https://www.youtube.com/watch?v=-x0orqFrHGA

• Lumen hardware ray tracing vs software ray tracing (geldigi ayarlarla hardware daha kaliteli grafikler sunuyor ama performans daha dusuk)
• PC vs konsol (konsol oradan buradan kisiyor)
• CPU performans limiti (20 thread %50 saat hizi olacagina 10 thread %100 saat hizi iyi. Bir yerden sonra yeni cekirdegin bir faydasi olmuyor. Saat hizinin faydasi oluyor)

 

 

Bu degismediyse Lumen'in software* cozumu yerine hardware ray tracing de acabiliyorsunuz. Her zamanki gibi, goreve ozel donanimda ya daha hizli calismasi, ya da ayni hizda daha yuksek kalitede calimasi mumkun. Hardware acildi diye ayarlar koklenirse "cok farkini goremedim ama performans da dustu" noktasi da yakalanabilir istenirse.

Unreal Engine 3dfx dustugu gun "kral oldu, yasasin yeni kral" demisti. 3dfx kralken Unreal uzun sure sadece onlarin API'i glide'da duzgun calismisti. Hardware ray tracing'le hem daha yuksek kalite, hem daha yuksek hiz yakalanabilirse bile islerine gelmezse, kendi tekniklerini one cikarmak isterlerse onu optimize etmekte biraz daha agir davranirlar, olur biter.

 *(Software dedigine bakma, GPU'nun programlanabilir shaderlarini kullaniyor. "Bak GPU'ya da gerek yokmus" diye gaza gelmelik bir durum yok)

 

Antialiasing/reconstruction icin nasil motorun kendisinde gomulu TSR var ama istersen DLSS acabiliyorsun. Onun gibi.

On 10/16/2022 at 11:18 PM, epi said:

 

"Yazilim" tabanli TAA gibi cozumler ise ozel donanimda calismak yerine genel islem gucunden yedigi icin performans acisindan da ideal degiller aslinda.

Hardware 3D'nin ilk gunleri, GeForce ile T&L, shaderlar falan derken GPU'larin butun numarasi goreve ozel tasarlanmis donanim.

Her seferinde geride kalan "ya ona ozel donanima gerek yok" diye masal anlatiyor (gerek yok ama olunca daha iyi). 

 

Videodaki Nanite UE5'le geldi, defalarca paylasildi ama 5.1'de gelistirdiler, anime edilebilen cayir cimen agaclar vs (foliage) icin de kulanilabiliyor artik.

Kameraya yaklastikca detay seviyesinin artmasi, arada daha yuksek detayli modele gecerken nihayet cat diye degisen modelin goze batmamasi (geometry pop-in olmamasi) cok guzel bir gelisme. 

On 12/26/2021 at 3:30 PM, epi said:

 

Nanite super. Geometri pop-in'den nefret ediyordum, 30 yildir Level of detail ve tesselation'i kotaramiyorlardi, videolardan gorebildigim kadariyla cozulmus gibi gozukuyor. Simdilik eksik yani rigid yapida olmasi. Mesela Valley of the Ancient UE5 tech demosundaki dev robot da nanite kullandigi icin cok detayliydi ama egilip bukulen kas gibi bir yapisi yoktu. Oyle olunca mesela metahuman'lar nanite degil. Simdilik. 

Lumen guzel. Oyunlarin her platformda gercek zamanli isiklandirma icin tasarlanabilecek olmasini saglamasi acisindan faydali. Fakat "vay be, gercek zamanli isiklandirma yazilimdan yapilabiliyormus demek, nvidia bizi yiyormus" demeye hevesli arkadaslar cok da heyecanlanmasin. 

  • "Software"den kasit eskisi gibi CPU'da calisiyor degil, GPU'nun programlanabilir shader birimlerinde calisiyor. Daha dogrusu calisiyordu, degisti.
  • Matrix Awakens demosunda onu da geride biraktilar, artik donanimsal ray tracing uzerinden calisiyor. Yani nvidia'nin yoluna geldiler aslinda.
  • nvidia bu isi daha hizli ve daha temiz yapiyor. Goruntude daha az bozulma var, performans daha yuksek.

Ayni durum TSR (temporal super resolution) icin de gecerli. DLSS daha temiz, daha performansli.

Nvidia'da denoising ve super resolution gibi AI tabanli isleri yapacak Tensor core'lar oldugu icin bu isi daha iyi yapiyor (ya daha temiz goruntu, ya daha performansli, ya da ikisinden bir sepet). Ray tracing performansi da daha yuksek oldugu icin denoising oncesi malzeme de zaten daha cok veri iceriyor (daha duzgun). Neticede UE5 demolarinda hareket eden golgelerin arkalarinda biraktigi kir, genel goruntude "film grain" gibi gozuken ama aslinda ray tracing denoising'in yeterince temiz olmamasindan kaynaklanan kir nvidia demolarinda daha az. O kadar kir beni bozmaz diyorsaniz nvidia donaniminda elde edeceginiz fps daha yuksek. 

UE5 guzel, sadece tek donanimda calisacak sekilde degil, genel olarak calisacak sekilde oyun tasarimina musade ediyor. Ayni icerik nvidia'da calistiginda daha temiz goruntu, daha yuksek performans gorulecek. Multiplatform tasarlanacak oyunlarin minimum donanimda da gercek zamanli isiklandirma ve yuksek detay seviyesi hedefleriyle hazirlanacak olmasi "bu RTX'i kullanacak oyunlar gelene kadar kim ole, kim kala" endisesine merhem oldugu icin UE5 PC icin de iyi.

 

*Grafiklerde bir devrimin esigindeyiz ama millet farkinda degil. Hala "RTX gerekli mi" videolari yapiyorlar.

 

Simdilik darbogaz hafizada. Ilk Nanite demolarinda sonsuz geometri havasi vermek icin ayni heykelin kopyalarini yan yana goruyorduk. Elestiri anlaminda yazmiyorum, darbogaz burada diyorum, oyunlar mevcut konsollarin vs hafiza miktarina da sigacak sekilde tasarlanacak, bir sonraki nesle gecip hafiza miktari arttikca limitler de yukselecek.

epi tarafından düzenlendi

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Hardware raytracing ile daha önce raytracing içinde ayrıca kullanılan RT Reflections, RT Translucency ve RTGI gibi bazı çözümler ayrıma gerek kalmadan HWRT mantığı içine girmiş.

Asıl mevzu path tracing... Şu an real time mantığı için aşırı yavaş (expensive) bir yöntem ama ilerleyen zamanlarda GPU'lar, klasik bir 3D renderer mantığında ve gerçeğe en yakın şekilde fizik bazlı GI hesaplarını gerçek zamanlı yapabilir hale gelebilecek. RT ile tek bir ışık gönderilip geri geldiği kadarı hesaplanırken PT ile binlerce ışık rastgele gönderilip tamamı hesaplanıyor. Bu da gerçek dünyaya en yakın GI hesabı demek. Şu an GPU-based render motorları var tabii ama hala tek bir kareyi render almak saniyeler sürüyor, gerçek zamanlı değiller.

Bu mesajı paylaş


Bu mesajın linki
Sosyal ağlarda paylaş

Yorum yazmak için üye olun veya giriş yapın

Yorum yazmak için üye olmanız lazım

Üye ol

Üye olun ve sitemizin tüm avantajlarından yararlanın!


Yeni bir hesap oluştur

Giriş yap

Zaten üyemiz misin? O halde giriş yap


Hemen giriş yap
1 1

  • Bu sayfadaki üyeler   0 üye

    Şu an bu sayfayı görüntüleyen bir üye yok