HCL.HR

Gears of War Ultimate Edition je vani za PC, a nije podmazao zupčanike

Zoran Žalac 02.03.2016.   •   28 komentara


Jedan od prvih DirectX 12 naslova jučer je izašao bez ikakve najave te je demonstrirao sve ono što DirectX 12 igre ne bi trebale ni smjele biti.

gears-of-war-ultimate

Mora se priznati kako je Microsoft uvijek dobar u obećanjima, posebice kad treba nahvaliti DirectX API.

Prošli smo tu priču već s „revolucionarnim“ DX10, djelomice i s DX11, ali smo se svejedno ponadali u moć DirectX-a 12 uz najavu da će PC igračima donijeti mnoštvo dobrih stvari. Možda doista i donese, ali Microsoft se već u startu istovario po svom obećanju, blago rečeno.

Naime, jučer je na Windows Store bez ikakve obavijesti izbacio Gears of War Ultimate Edition. Da je PC verzija u planu, to smo znali, kao i to da će biti DX12 naslov, ali prije izlaska igre nismo znali ni kakav će nam hardver trebati za nju. Sad znamo pa evo:

Minimalno Intel i5 sa 2,7 GHz ili AMD FX sa 6 jezgri, 8 giga rama, GeForce 650 Ti ili Radeon 260 X. Preporučeno za 1080p, Intel i5 na 3,5 GHz, 8 giga rama, GeForce 970 ili Radeon 290X. Navedene su još i postavke za 4K rezoluciju, međutim, u ovom trenutku njih je besmisleno i spominjati jer igra ima značajnih problema u izvedbi, posebice s grafičkim karticama iz AMD-a.

Događa se tako da igru bolje vrte slabije kartice, dok Radeon Fury X ili Radeon R9 Nano nemaju šanse pri održavanju stabilnih performansi. Slično je i na protivničkoj strani gdje se igra na Nvidiji 980 Ti vrti lošije nego na GeForce 970.

Gdje je onda zapelo? Pa, recimo da Gears of War Ultimate u startu nije bio zamišljen kao DX12 naslov. Riječ je o preradi igre kojoj je baza u starom Unreal Engineu 3. Drugim riječima, igra nije rađena iz temelja već joj je kod preuzet iz deset godina starog naslova s još starijim Unreal Engine 3 pokretačem. S obzirom da UE3 ni u zadnjoj verziji ne podržava DX12, pokretač je zapravo hakiran da bi mu se dodao DirectX 12.

To je već u startu kočnica sama po sebi, a Microsoft si je ovim potezom sam sebi uskočio u usta – ispoštovali su da će izbaciti Xbox ekskluzive na Windowse 10, ali su prešutjeli to da DirectX 12 nije najbolje rješenje u toj kombinaciji.

Označeno sa:

Komentari (28)

  • Slim1992

    02.03.2016 - 15:29

    DX12? Pa zar igre ne bi trebale bolje da rade? ahahahah E svasta, uglavnom i ja sam bio naivan pa sam i povjerovao. Uglavnom AMD je u zadnje vreme brujio o DX12 i perfomansama a desilo se da igra katastrofalno radi na njihovim kartama. Problema ima i na Nvidiji ali kod nekolicine korisnika, plus Nvidia je jos juce izbacila drajvere koji su kako citam urodili plodom, ko zna kad ce AMD… http://www.forbes.com/sites/jasonevangelho/2016/03/01/gears-of-war-ultimate-edition-on-pc-is-a-disaster-for-amd-radeon-gamers/#3f3c6d807e7e

    • Slim1992

      @Slim1992, 02.03.2016 - 15:31

      Evo jedan benchamrk na AMD “Fury” grafickoj… https://www.youtube.com/watch?v=utOyqdoMqas

    • Zoran Žalac

      @Slim1992, 02.03.2016 - 15:41

      Doslovno je taj video gore naveden u vijesti. -.-

    • Slim1992

      @Zoran Žalac, 02.03.2016 - 17:38

      Da, nisam vidio, procitao sam samo vijest…lol

    • ashstash

      @Slim1992, 03.03.2016 - 13:34

      mislis procita si samo naslov?
      “Gears of War Ultimate u startu nije bio zamišljen kao DX12 naslov. Riječ je o preradi igre kojoj je baza u starom Unreal Engineu 3. Drugim riječima, igra nije rađena iz temelja već joj je kod preuzet iz deset godina starog naslova s još starijim Unreal Engine 3 pokretačem. S obzirom da UE3 ni u zadnjoj verziji ne podržava DX12, pokretač je zapravo hakiran da bi mu se dodao DirectX 12.

      To je već u startu kočnica sama po sebi”

    • Slim1992

      @ashstash, 03.03.2016 - 14:47

      Ne, procitao sam sve osim videa, doduse video se gleda a ne cita :p. Procitao sam i to sto ti pricas i zao mi je sto si povjerovao ljudima koji su tu pricu plasirali, vjerovatno MS i ko zna ko jos. Uglavnom DX12 igre dolaze, tako da se jos malo nadaj….

  • Mentor

    02.03.2016 - 15:46

    Znalo se za PC zahtjeve ima sedmicu dana, a ovo neću ni probat vala čak i da je odlično optimizovano. Puno bolja je opcija bila da su nam dali drugi i treći dio, ne mora Judgement i sad ovaj četvrti. Jok oni daju nešto što smo igrali prije skoro 10 godina i još failaju u tome.

  • IvanDado

    02.03.2016 - 15:50

    Necu ni komentirat.

  • pesek32

    02.03.2016 - 16:00

    Koje to budaletine rade u MS-u da puste ovo neoptimizirano smeće sad, a nisu ni dali nikakav release date. Igra ima sulude zahtjeve, a puno ljepše igre se vrte normalno. Mislim da ovo ne bi mogao ni pokretat dok još većinu novih igara pokrećem. Užas. E i onda još pridodaj da je na smeću zvanom windows store.

  • goldfinger

    02.03.2016 - 16:07

    Shit na kvadrat….

  • Vejn

    02.03.2016 - 16:09

    A glupan, kupim R9 390 i sad ga vjerovatno necu zaigrati ni na LOW kako treba :( Zasto ne uzeh gtx970 i da ga igram ko covjek https://www.youtube.com/watch?v=HYikUkvFw1s Moram grafu na online prodaju staviti i da lovim 970ku.. A valjda ce ga popraviti do tada… DX12- maksimalna iskoristenost procesora i grafike hahahahahahahaha … API I mantle qq jada, ismijah se…

    • Muflon

      @Vejn, 03.03.2016 - 15:12

      Igra zapinje na Fury, Nano i 380 karticama, na 390 radi identicno ko i na gtx 970.

    • Vejn

      @Muflon, 03.03.2016 - 15:30

      Ja sam mislio da nista nece zapeti na karti koja ima 8GB rama lol. Zar ne bi trebalo da radi bolje, ima duplo vise rama, ili barem isto… ali nista sem ”identicno” nisam ocekivao …

    • Muflon

      @Vejn, 03.03.2016 - 15:48

      Igre koje ne koriste vise od 4GB vRama se vrte vise, manje identično,barem sto se 1080p tiče. Na 1440p i vise r9 390 će vrtit bolje (zbog dodatne memorije). Ugl ne isplati se mijenjat 390 za 970 pošto je snaga GPU-a ista a 390 ima duplo više memorije. Jednog dana će igre i na 1080p trositi vise od 4gb memorije i tada će i tih dodatnih 4gb koje ima 390, dobiti svoju ulogu. Tako da mislim da je 390 ipak malo bolji “future proof” nego 970. Evo ja danas iskreno žalim što sam prije 5 godina uzeo 1gb verziju Radeona HD6950 umjesto 2gb verzije, da sam uzeo 2gb verziju sad još neko vrijeme nebi morao kupovat novu grafičku.

    • Vejn

      @Muflon, 03.03.2016 - 16:15

      Ja mislim da je ulaganje u buducnost besmislena stvar :) I sam sam uzeo FX8320, rekoh, sad ne ali u buducnosti ce trebati 8 jezgara ! Proslo je vise od godinu dana a nista jos ne trazi toliko, i nije stvar u tome sto aplikacije i igre ne traze, stvar je u tome sto ce uskoro AMD izbaciti nove procesore, NVIDIJA potpuno nove karte i sto ce vjerovtno igre traziti nesto potpuno drugo… Isto tako… ko je uzeo R9 zbog 8 giga rama nece vjerovatno dobiti nista, jer dok dodje igra koja ce traziti 8 giga prodje boga pitaj koliko godina a za toliko godina ona ce biti 0… Ne moze grafa bii top vise od dvije ipo, maksimalno 3 godine :) To znam iz iskustva.. A hd690 je stvarno imala snagu, kad se sjetim gtx460 koju sam koristio, koliko je u to vrijeme bila vrh, onda sam ubacio HD6950 2GB i vidio ogromnu razliku ! Ono sto hocu da kazem, je da je AMD jak samo na papiru, dzaba njima karta od 8gb rama i cpu od 8 jezgara kad to zaostaje za koknurencijom svjetlosnim godinama… Nisam nikakav trol, imam AMD procesor, dzaba mi 8jezgara na 4 kad je intel sa 3.3 i 4 jezgra jaci, isto tako je sa sa grafickim… Jednostavno ljudi nisu realni, svako svoga konja fali a nece niko da kaze realno, u tome je problem. Kazes jaca u 1440p, negdje 2 negdje 3 frejma jeste jaca, a tako isto je toliko slabija, sve zavisi od igre…

    • Muflon

      @Vejn, 03.03.2016 - 17:08

      Intelov 4core procesor je bolji za gaming od AMD-ovog 8core zbog toga što igre ni ne koriste više od 4 jezgre (mnoge još ni ne koriste više od 2) ali to je ponajviše krivica developera koji bi silno željeli svoje igre napunit svime i svačime a još uvijek se nisu odmaknuli od principa na kojem igre rade još od početka prošle generacije. Kupio sam 4 jezgreni AMD pije 5 godina, (s time da 4core procesori postoje još dulje od toga) i nakon svih tih godina intel još uvijek sfurava 4core procesore za 2000+ kn a developeri još uvijek ugađaju istima bez potrebe da promjene tehnologiju. Lijenost? Zanimljivo da su uspjeli na konzolama natjerat igre da se vrte na više jezgri s obzirom na to da xbone također koristi directx. Da se razumijemo, nisam ja tu neki AMD fanboy, iskreno mi je svejedno jel mi procesor dolazi u crvenom ili plavom pakiranju(posjedovao sam i jedne i druge), samo mi je činjenica da 4core procesori bolje vrte igre od 8core smješna (koliko god jača jezgra bila u pitanju). Pričekat ću još da izađe AMD “Zen”, ako ispadne loš, kupujem intel. A što se tiče nVidie neću kupovat njihove kartice iz principa, jer ne podržavam politiku ubacivanja njihovih sranja u igre koja ničemu ne služe, osim da koče performanse na konkurentnom hardveru. A ironija je i ta da je većina tih sranja u početku bila AMDova open source tehnologija koju je nVidia odlučila uzet i sj***t i pretvorit u “nVidia exclusive”.

    • Vejn

      @Muflon, 03.03.2016 - 19:45

      Da, i kod mene je isti slucaj… Apsolutno je nevazno da li je crvena ili plava kutija kad su razlike minimalne, svakako je graficka prioritet… I ja isto cekam ZEN pa cemo vidjeti… Intel je bezobrazniji kao kompanija nego NVIDIJA,naprotiv ne znam zasto su oni problem… Intel i7 4770 je gotovo isti kao FX6300,mozda frejm do 2 brzi sto nikko ne opravdava gotovo 250 evra sto je skupli !!! R9 3xxx duplo vise trose, duplo su bucnije, 20-30 stepeni toplije od 9 serije nvidijinih cipova, a pri tome su u vecini slucajeva sporiji, jesi siguran da je NVIDIA bezobrazna kao kompanija… Pri tom ne prepakuju svoje djelove u druge omote i prodaju kao ”novo” A ne bih se slozio sa PHYSX tehnlologijom da je ukradena, odnosno da su im uzeli… Onisu imali priliku da rade sa njom negde 2005 godine, bili su smotani, stavili su physx na CPU sto tad nije bilo moguce. Ne moze najnoviji intelov da vrti fiziku bez problema a ne tadasnji prevazidnenji 3000+ cpu :) Na kraju krajeva, vecinu tih efekata mozes vidjeti i na Radeonkama, HBAO+ koji je zastupljem u gotovo svim igrama…. I ja mislim da je zalosno da 4 jezgra budu brza od 8 pa kakvi god bili, to samo govori koliko su razvojni timovi bezobrazni ili mozda rerardirani….

    • KhorneFlake

      @Muflon, 03.03.2016 - 20:03

      Otprilike smo tu negdje. Ali nije samo fora u tome što se mali broj jezgara iskorištava. Bulldozer i varijacije su već poprilično vremešni, Intel je odmakao u proizvoljnom procesu, a odavno imaju superiorniji single-threaded performance koji je Ahilova peta FX procesora. Ashes of the Singularity daje popriličan boost nas svim procesorima u DX12 modu, ali Intel je opet brži čak i sa 4 jezgra. Zen je povratak AMD-a u high performance klasu, ali će doći i sa cijenom.
      A za nV ne vrijedi trošiti puno riječi. Maxwell već odavno gubi dah nakon prvobitnog hajpa i talasa GimpWorks igara, a Kepler je sahranjen već odavno. Smiješno vidjeti da refreširana arhitektura iz 2013-e godine izlazi na kraj sa njima: https://www.youtube.com/watch?v=cMUbHdQBSiQ
      Vidi se da Pascal nije daleko.

  • baDarmageddoN

    02.03.2016 - 16:37

    Pročitah govore o ljepoti o dx12 i ponadah se da će nešto uistinu biti od toga. Nabavih Ashes of singularity da odradim testiranje i nakon što sam istestirao sve benchmarke dođem do rezultata da je razlika između dx11 i dx12 verzije jedan frejm. Međutim, uzeti staru igru i napraviti sitnu modifikaciju je kao da su uzeli fičeka i stavili v12 od npr. Ferrarija. To nikad neće biti ferrari, pa niti onda. Mislim, nisam negativan što se tiče bar malog napretka na PCu u bilo kojem smislu ali reći da su napravili igru sa dx12 podrškom je jedna notorna laž, kako bi rekli naši političari, i bilo bi lijepo da službe MSa odrade svoj posao i da se ispričaju još jednom u nizu za još jedan propust. Da, rekli su nam da će pružiti prst no mi smo htjeli cijelu ruku a dobili samo nokat i to ne baš najčišći nokat jer nema logike da slabiji hardver (osim ako se ne radi o konzolama, što je već neka druga verzija igre) može derati jači. Pre-genijalno. Još da to nije MSova igra onda bi bilo samo intrigantno, ovako je jednostavno jadno.

    • Slim1992

      @baDarmageddoN, 02.03.2016 - 17:44

      Da, nista drugo sem bajke…Koliko se samo prica naslusah o FX procesorima i iskoristavanju njegovih jezgara uz DX12… pa i sam sam povjerovao u to i nadao se :)…Al najlakse je iznositi dokaze na papiru i govoriti o duplo boljim perfomansama itd…DX12 je ocito bila organizovana laz, u kojoj je ucestovalo mnogo kompanija, ne samo MS :(

  • krosis

    02.03.2016 - 17:25

    “Dođoh, vidjeh, slomih vrat….”

  • KhorneFlake

    02.03.2016 - 18:05

    Ovo je igra zbog koje sam odlagao instalaciju Desetke. Nije mi se žurilo, ionako nema potrebe bez ijednog DX12 naslova. A onda puf, odjednom iz vedra neba pade igra, češljam foldere za ISO od Win10, i onda vidim ovo…
    Stardock, mala kompanija, napravi Ashes of the Singularity, DX12 igru koja u drugoj Beti bilježi fin skok performansi na svim mogućim procesorima, isto fin skok na Radeonima zbog upotrebe Async šejdera. Odrade posao preko svih očekivanja, i onda dođe jedan MS koji ga odradi preko one stvari. Dok u Ashesu je moguće povezivati i kartice od oba proizvođača, u ovom ni normalan SLI/CF ne radi.
    Oni koji bi trebali da guraju DX12, Win10, promovišu WinStore ovako nešto naprave. Pa da li to ima ikakvog smisla? Naravno da nema, danas ionako ništa nema smisla.

    • jichba666

      @KhorneFlake, 02.03.2016 - 20:35

      Ovdje je najveca kocnica sam UE3 Engine a zatim i sam Windows Store koji aplikacije forsira u borderles modu, imam originalno izdanje i ne pada mi na pamet ovo uzimati nikako. Također ko lud sam se radovao Forzi kad ono ispada da ce biti sranje.

    • KhorneFlake

      @jichba666, 02.03.2016 - 20:43

      Kočnica je i sam DX12. Sa DX11, developeri su se dosta oslanjali na GPU kompanije i njihove drajvere da ispeglaju performanse, sa DX12 više ne zavisi toliko od drajvera koliko od samih developera.
      Async computing, mogućnsot iskorišćavanja dodatnih jezgara, sposobnost kombinacije različitih grafičkih kartica kao i kombinacija njihovih memorija, niti jedna od DX12 mogućnost ne dolazi sama po sebi već moraju da se zasuku rukavi i kodiraju u igru, pa i sam engine. Ashes dobro obavlja stvari u ovom pogledu, ali zato je u razvoju i Beta testiranju već poduži period.
      A realno, 90% developera danas su ljenčuge koje su jedva u stanju izbaciti funkcionalan proizvod, tako da na ovaj način samo dobijaju dodatne mogućnosti da uprskaju stvari.

  • GTA222

    02.03.2016 - 19:00

    uvije Bi trebalo biti uvijek skroz gore na početku teksta, a Microsoft uvijek nešto kaže ali rijetko ispadne kako treba.

  • Alum

    02.03.2016 - 23:23

    lol fail 😀

  • IJM

    03.03.2016 - 14:02

    Zorane, mislim da ti je negdje ispao @ 60 FPS pokraj ovog 1080p; Jer, CPU neće mijenjati situaciju na različitim rezolucijama, to čini isključivo grafička (Većinom GPU, no i druge komponente). Broj operacija koje CPU mora izračunati za 640×480 i 1920×1080 je isti.

  • BerkutOPz

    03.03.2016 - 14:11

    Pa moze donijet mnostvo stvari dobrih .. Ak se dobro napravi .. Logicno ..

Komentirati mogu samo prijavljeni korisnici
PRIJAVI SE ili REGISTRIRAJ i ostavi svoj komentar!