- Milyen széket vegyek?
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Támogatja a legújabb Windows frissítést az új AIDA64
- Mini PC
- Megérkezett a legújabb és eddigi legátfogóbb 3DMark teszt
- Fekete misztikum: DeepCool Mystique 360 vízhűtés
- Milyen billentyűzetet vegyek?
- VR topik (Oculus Rift, stb.)
- Intel találgatós topik
- Autós kamerák
Hirdetés
-
Kiderült, hogy hol veszik a legtöbb kínai EV-t
it A kínai EV-k és hibridek eddigi legnagyobb exportpiaca Belgium volt, azonban az EU-s álláspont és a kínai stratégiaváltás miatt immáron Brazíliába kerül a legtöbb ilyen jármű.
-
Támogatja a legújabb Windows frissítést az új AIDA64
ph A 7.30-as verzióval a korábban bemutatott sötét mód is javult.
-
Spyra: nagynyomású, akkus, automata vízipuska
lo Type-C port, egy töltéssel 2200 lövés, több, mint 2 kg-os súly, automata víz felszívás... Start the epic! :)
Új hozzászólás Aktív témák
-
XtremLor
őstag
Iskolakezdesre lefedik a teljes palettat. A 660 Ti varos darab lesz...
"Legen...Wait for it...Dary"
-
Destructo
aktív tag
GTX 660 Komoly befutó lesz nálam..már egy ideje töröm rajta a fejem...megnézzük milyen lesz aztán hajrá ! Csak ne legyen annyira csillagászati ára...
-
tombar
senior tag
ezek a gk 104re épülnek majd, nem? legalábbis az összes eddigi pletyka a ti esetében erről szólt.
Everybody knows, you dance like you fuck. So let me see you dance!
-
buzus
aktív tag
Pont olyan túlárazott lesz mint Radeon 7xxx széria, ugyanis nem fogja olcsóbban adni mint a konkurens. Kartell van érteeem?
-
matteo_szg
őstag
Hmm...én Q4-et hallottam a HD7990 megjelenése kapcsán.
jupiiii
-
Srodney
senior tag
remélem a 650 660 nvidiák most azért jobbak lesznek mint átnevezett társai korábbi szériákban...
-
Löncsi
őstag
Jöjjenek szépen, kell az utód.
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
nonoka74
tag
Karácsonyra csere érett lesz a gtx460-am!csak az a baj,hogy már most el kell kezdenem gyűjtögetni az új karcsira!
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz matteo_szg #6 üzenetére
Az fura lenne. Persze lehet, hogy nincs elég PLX PCIe 3.0-s lapka, és akkor érdemes tovább tolni, de az AFDS-en már megmutatták a terméket, szóval lényegében kész van.
Esetleg még stratégiai dolog lehet a húzás. Az AMD nyilván arra is játszhat, hogy a régi játékokat cseréljék újakra a tesztekben, mert az új DX11-es címekben aláznak a GCN-ek.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
tombar
senior tag
ezek melyik játékok?
egyébként ezek a komolyabb compute shadereket használó kódok mind evolvedes játékok, vagy van közöttük független csapat is? mert ha ennyire a computeot helyezik előtérbe, akkor az nVnek alapvető érdeke lenne néhány komolyabb twimtbp játékkal előhozakodniuk. enyhén furán jönne ki az a gondolkodás, h látván az erőteljes compute affinitást a fejlesztők részéről ennyire mostohán bánjanak ezzel a szegmenssel. főleg h ez a vonal már régóta megy. az addig még oké h jó tegra alap kell, de szinte biztos h számoltak azzal h a gcn ennyire erős lesz computeban.
avagy tényleg nem érdekes ez az egész és kepler megy tegrába, a maxwell (700as sorozat) meg megy computera?[ Szerkesztve ]
Everybody knows, you dance like you fuck. So let me see you dance!
-
veterán
En alalirom , hogy a GCN fejletteb meg minden, de aki ma vesz kartyat,azt hullara nem erdekli, hogy majd a jovoben (ket harom ev mulva) ez lesz az iranyado architektura.
Oszinten milyen nagy jatekok jonnek, amiert megerne a GCN meg az a plusz 70 w fogyasztas.
Szerintem az AMD megint kihozott valami olyant aminek a jelneben semmi keresnivaloja nincs, a jovoben pedig meg mar nem ez lesz a szuk keresztmetszet.A masik meg az, hogy azert az AMD-tol nem egyszer hallhattuk, hogy majd hoz gyorsulast meg mindent a jovoben. (ld 8800Gt vs 3870) aztan, jo ha van egy jatek, ahol a Hd3870 befogja a 8800 gt-t. Persze mindent meg lehet magyarazni, de aki megveszi a termeket azt baromira nem erdekli, hogy mitol gyors/lassabb a kartya. Neki csak az a lenyeg, hogy melyik a gyorsabb. A miert az mar semleges.
[ Szerkesztve ]
Addig gyorsítottuk a világot míg mi magunk maradtunk le...
-
matteo_szg
őstag
a tűzhöz közeli a forrásom, és őszintén szólva mi sem kaptunk semmi infót Q3-as HD7990 launchról...GTX660 Ti és egyéb GeForce-ok jönnek, illetve a MATRIX HD7970. Slussz.
Illetve Q4-ben jön pár ütős játék, amit a Gaming Evolved program részeként marketingelnek...egyről biztosan tudok - ez sajna titok -, illetve ha tippelnem kell, akkor az új Medal of Honor is ilyen cím lesz.
jupiiii
-
MZperX75
addikt
S3Trio64-1M,VoodooRush 4M,Voodoo2-8M+S3-4M,RivaTNT2-16M, nagy nagy szünet,Geforce2-MX400-64M(a legrosszabb kártyám) ,nagy ugrás Ati9550-128M(ez is gyengusz) Ati X1650-256M(GDDR3),Ati HD2600XT Passzív,HD4850-512,HD4870-1G...
Kényszerből,de 1 hónap után dobtam illetve az egész konfig eladva(Phenom2X4-945) HD5670-1G GDDR3(nagyon gáz kártya)
És" nem "szándékozok többet venni.
Ha rajtam múlna szegény cégek a VGA kártya bizniszt bezárhatnák,már most.Ezért a fent felsorolt kártyákért 20-30ezer FT-nál többet sohasem adtam,röhejes hogy most
ezért a pénzért max 4830-4850 erősségű csodát lehet kapni kevesebb fogyasztással.2.5-3 éve de lehet már több is a 4850-es kártyámat 32.000Ft-ért vettem, 1 fél évre rá
21.000Ft-ért vettem még egyet a CFX miatt,a HD4870-1G kártyát 28.000Ft-ért vettem 2 év garral boltból.Ebben az árszegmensben semmi értelmeset nem tudok mondani,(talán egy HD7750) talán
de ez sem gyorsabb egy HD4870-nél(persze harmadát eszi de 32.000Ft alatt nem kapni)[ Szerkesztve ]
-
tombar
senior tag
válasz matteo_szg #13 üzenetére
a warfighter elvileg frost2es motorra épül. na azon meg a keplerek nem kicsit jobbak. mondjuk írhattak a kódon, aztán meg hőbörög a népség h showdownban a gtx680 semmit sem ér. ilyet kb. a a hawxnál láttam utoljára twimtbp vonalon. ja meg a shogun2es patch is. enyhén érdekes volt h egy evolvedes játékban játékban nyitótáncként a kepler erősebb volt, rögtön utána jövő patchnél meg ultrán beszakadt a kárty, mint a gtx 550 a flex vezérléssel.
Everybody knows, you dance like you fuck. So let me see you dance!
-
Abu85
HÁZIGAZDA
Idén öt DX11-es játék jött ki. Ebből négy eléggé a GCN-nek kedvez. A DiRT Showdown (ez Gaming Evolved fejlesztés) és a Ghost Recon Future Soldier (ez független fejlesztés) nagyon. Előbbiben a HD 7850 közelíti a GTX 680-at, míg utóbbiban a HD 7870-nel van egy szinten a top egy GPU-s GeForce. Egyelőre ennyi. Valószínű, hogy a TWIMTBP címeknél az NV tiltani fogja az erős compute terhelést, míg az AMD a Gaming Evolvednél igényelni. A független fejlesztéseknél kérdés, hogy mit akarnak a fejlesztők, valszeg nem fogja érdekelni őket a hardver, csak akkor, ha valami gubanc lehet a Kepler gyenge compute képességeiből a motor működésében. Például a Frostbite 2.0 LDS-t használ a deferred renderhez, szóval nem árt kímélni a shared memory terhelést, mert nem szimplán egy effekt születik compute shaderrel, hanem erre épül a motor működése. A BF3-at le is butították megjelenésre, hogy ne legyen probléma a Keplerrel. Akkor nem lehetett mit tenni. Nem volt lehetőség tesztelni, hogy mennyire érzékeny a Kepler a működésre. Ma már lehet tesztelni, és nyilván jóval egyszerűbb eldönteni, hogy maradjon a HDAO, vagy jöjjön a HBAO. Előbbi sokkal jobb minőséget ad, de az LDS-t terheli. Nem volt biztosíték arra, hogy ezt elbírná a Kepler.
(#12) adamssss: Ez már a jelen. A Kepler megjelenése óta 5 DX11 játék jött. Ebből négyben erősebb a GCN. Helyenként nem is kicsit.
(#14) V!ck: Az órajelektől sok dolog függ, de elég messze van a HD 7770. A HD 7750 talán elkapható.
(#16) tombar: A Frostbite 2.0 csak egy motor. Ha a BF3 tervezett módon jelent volna meg, vagyis SRAA által irányított MLAA-val és HDAO-val, akkor az erősítette volna az LDS terhelést. Azért kellett csökkenteni a minőséget, mert nem volt benne biztos a DICE, hogy 0,33 bájt/FLOP mellett egy termék képes lesz elviselni a terhelést. Eredetileg a motort 0,6 bájt/FLOP-ra tervezték, ami logikus volt, hiszen ennyit tudott a leggyengébb architektúra. A Kepler azóta ezt az értéket megfelezte, és így át kellett értékelni a helyzetet. Mivel a Frostbite 2.0 tényleg alapvetően épít az LDS-re, így a legfontosabb dolog, hogy semmi se terhelje túl, mert az a rendszer működésére lenne negatív hatással. Mivel tesztelni nem tudták, hogy a Kepler mennyire jelent problémát, így kivettek minden olyan effektet, ami LDS-t használ, és maradt csak a deferred render. Ezzel biztosították, hogy bármennyire is gyenge a Kepler, ebből gondja nem lesz. Most, hogy van hardver lehet tesztelni, hogy mennyit bír.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
tombar
senior tag
mondjuk tény h mindenkinek maga felé hajlik a keze, viszont a bf3nál ezek szerint az nVnek ennyire kedveztek? a tesztekben sokszor az azonos kategóriában az nV nem kicsit jobb. pl 670 vs 7950. ez a butítás eredménye? illetve ez a downgarde mennyire csökkenti a látványt ill. a működőképességet? vagy csak szimplán compute olyan, mint nagy általánosságban a brute force eljárások? egyszerű és hatásos, de sok naftát igényel?
Everybody knows, you dance like you fuck. So let me see you dance!
-
veterán
Ez aztan nagy erdem. 2011 decembere ota van ket jatek amiben van szamottevo kulonbseg az AMD javara... (hozzateszm ket jo jatek)
Van masik 15 ami meg az nv-ken fut jobban. Raadasul a nagy nevek is inkabb az NV-t szeretik...
De csak vegyuk a ket mai legfejletteb motort a CryEngine-t, meg a Frostbyte 2-t. Ha jol tudom, ok a keplert szeretik...Nekem a velemenyem tovabbra is az, hogy egy GTX670 boven eleg mindenre, es a PH-s tesztbol is latszik, hogy helyenkent a 7970-et is alulrol nyaldossa. A fogyasztas kulonbseget pedig a jateokokban smmi nem indokolja...
[ Szerkesztve ]
Addig gyorsítottuk a világot míg mi magunk maradtunk le...
-
Abu85
HÁZIGAZDA
A BF3-nál nem volt más lehetőség. Világos, hogy senki sem számított rá, hogy hirtelen jön egy architektúra 0,33 bájt/FLOP-os shared memory teljesítménnyel. A DICE gondolom ezt megtudta, és ki kellett venni mindent a játékból, ami extra terhelést adott. A Frostbite 2.0 az speciális eset. Ez a motor másképp működik, mint az eddigi motorok, más döntéseket is kell hozni, szorult helyzet mellett. Az világos volt, hogy a GCN sokat bír, de a Keplert látatlanban nehéz belőni, szóval a legjobb döntés tényleg az volt, hogy lebutítják aztán majd meglátják a későbbi játékokban. A GCN-nek, TeraScale-nak, Ferminek ettől amúgy sem lett semmi baja, maximum nem használják ki az architektúrák képeseit.
Az biztos, hogy a HDAO helyett HBAO lett bevezetve. Előbbi jóval jobb minőségű, és jellemzően gyorsabb, de nem volt célszerű a Keplert terhelni vele. Az AA szempontjából az FXAA került középpontba az MLAA helyett. Ez is az LDS terhelést csökkentette. Bár ez szerintem annyira nem volt komoly mértékű, inkább a HDAO volt itt a kérdés.
A compute az tág fogalom. A GPU-k jellemzően okosodnak. Ma már a GCN úgy néz ki, mint egy RISC processzor, csak nagyon széles vektortömbökkel. A fő előnyöket a compute shader szempontjából az LDS adja, mert helyi szinten meg lehet osztani az adatokat. Ez elég nagy jelentőségű, mert korábban a VRAM-ot kellett igénybe venni, ami sokkal lassabb. Egy GPU ugyan tolerálja a késleltetést, de ettől a gyors adatmegosztás hozhat úgy 3x-os előnyt. A GCN egyrészt azért olyan combos compute-ban, mert az LDS mérete a kétszeresére nőtt a DX11-ben megkövetelt szinthez képest, és különálló tárról van szó, vagyis van még mellette egy L1 data cache, ami extra teljesítményt ad.(#19) adamssss: Ha a AVP-re és a Metro 2033-ra gondolsz, azok régebbi játékok. Azóta már négy új is megjelent. Ezek közül kettő hasonló terhelést fejt ki, mint az említett játékok, és kettő jóval erősebb compute terhelést eredményez. A DiRT Showdown terhelése például elég magas, mert ez az első játék a világon, ami képes több száz pontfényforrást kezelni forward render mellett. Az olyannyira utált, MSAA használatát kizáró deferred rendert anno csak azért vezették be, hogy több száz pontfényforrás rendereljen a motor, mert másképp nem ment korábban. A GCN-nel már megy forward renderrel is, vagyis mindazok az előnyök megvannak, amiket egy forward render ad (működő MSAA, átlátszóság egyszerű kezelése, komplex felületi variációs lehetőségek), és emellett kezelhető ezer pontfényforrás is. Szóval eléggé át lehet gondolni a deferred rendert, mert csak azért tűrik meg, mert sok pontfényforrást kezel. De ha ezt forward render mellett meg lehet oldani, akkor kell a halálnak a deferred renderrel járó rengeteg limitáció.
A motor az nem úgy működik, hogy én azt kedvelem és kész. A CryEngine 3 eléggé az AMD architektúráját kedveli. Egyszerűen a Crysis 2-ben félre van tervezve. Ez magán a játékon is látszik. Rengeteget pöcsöltem vele, hogy találjak egy olyan terepet, ahol nagyjából reális a terhelés, de ilyen nincs benne. Vagy a Kepler a jobb, vagy a GCN ver mindent. Ez nagymértékben a tesztelt pályarésztől függ. A Kepler jellemzően a víz közelében jó, míg a GCN a városi környezetben, főleg ott ahol rengeteg bonyolult tesszellált felület. Ilyenkor a GCN csak lementi azokat. A többi architektúra megpusztul úgy számol, de a GCN csak betölti a lementett felületet és kész. Ez egy trükkös megoldás, de félelmetesen hatékony. Emellett a rasztermotor is másképp működik. A GCN-ben a raszterizálás egyfajta tömörített formában történik. Akár négyszer kevesebb lehet a munka így. Ha kicsik a háromszögek, akkor ez megint nagy előny. Ezért hullámzik a Crysis 2 teljesítménye, és ezért került ki, mert nem találtunk olyan terepet, ahol ne lett volna az egyik architektúrának mesterségesen kialakított előnye. Nyilván persze a GCN-nek nem szándékosan alakították ezt ki, csak így alakult. Majd a CryEngine 3 esetében a másik cím lesz a mérvadóbb. A Nexuiz gyakorlatilag ugyanazokat az effekteket veti be, csak nincs elrontva a program.
A BF3-ról fentebb volt szó.
A motor tehát annyira nem számít. A fő kérdés, hogy mit számoltatsz vele. Ez a fejlesztőkön múlik.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
tombar
senior tag
a következő videó kártya tesztben esetleg bele tudjátok rakni a maxpayne 3at, a showdownt, a rage-t, a sniper elite v2-t, esetleg még a skyrimet? tudom h sok, de egyrészt picit igazodna az anandteches teszthez és az új játékokkal még többet is mutatna.
vagy ez így már nagyon sok lenne Oliverdának és neked, Abu?Everybody knows, you dance like you fuck. So let me see you dance!
-
-
Abu85
HÁZIGAZDA
A Max Payne 3-mal szenvedek, de dolgozok rajta. Azt felvennénk mi is, csak iszonyatosan körülményes, de szvsz megoldom. Dirt Showdown és a Sniper Elite v2 fel lesz véve.
A Rage-et nem tudjuk mérni, mert a motor úgy van kalibrálva, hogy 60 fps-sel fusson, amikor csak lehet. Ezért a részletességet is csökkenti real time. Nyilván egymás után sorakoznának a rendszerek 60 fps-sel. Ennek sok értelme nincs. Próbáltam kiütni az automatikus korlátokat, de nem lehet teljesen megoldani. Mi is akarunk egy OpenGL-es játékot a tesztbe, de jelenleg nincs sok opció. Gyakorlatilag semmi.
A Skyrim azért gond, mert feltételes elágazást használ a program. Indításkor van egy adatbázis, aminél kijelölésre kerülnek azok a VGA-k, amelyek kötelezően vertikális szinkron mellett futnak. Így ez nem túl jó opció, hiszen nem mehet a játék sebessége 60 fps fölé 60 Hz-es monitoron. Ezt is próbáltam kiütni, de nem vagyok nagyon jártas a crackelésben. Próbálkozásaimat csúfos kudarc koronázta.(#22) tiborandras: Ezek ki vannak véve a programból. Amit a menüben be tudsz állítani grafikát az a max.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz matteo_szg #13 üzenetére
Én hiszek neked. Csak furcsa lenne a Q4 launch.
A Gaming Evolvedről küldök privit.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
matteo_szg
őstag
-
Abu85
HÁZIGAZDA
válasz csucsbicep #25 üzenetére
Nem tudom, hogy hogyan lesz. Egyelőre csak a benchmark részt ellenőriztem, hogy mennyire ad következetes eredményt.
Szerintem nem. Sok értelme jelenleg nincs az AMD szemszögéből.
(#27) matteo_szg: Jaj. Ezek a véletlen elszólások.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
tombar
senior tag
válasz matteo_szg #27 üzenetére
óóóh a pí_csába, jöhetne pár ilyen a 660tiről is
Everybody knows, you dance like you fuck. So let me see you dance!
-
Abu85
HÁZIGAZDA
válasz fatallerror #32 üzenetére
Nincs akadálya, de kérdés, hogy ez az F1-ben mennyit ér. A DiRT Showdown azért alapvetően eltér a grafikai dizájn tekintetében.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
vinibali
őstag
tényleg nagy csend volt a 6990-nel kapcsolatban. kezdtem félni, hogy eltusolják teljesen
BIOS/UEFI írás, helyreállítás, törlés, mentés! https://www.bvinarz.org/bios-iras/
-
fatallerror
addikt
mármint hogy értve tér el?
egyébként a showdown-ról amit találtam ott tényleg jobb az amd nem is kicsit, gondolom ezzel tesztelitek a gtx 660ast
az a másik amd-s játék meg amit nem neveztek meg az a hitman, nincs benne titok. a firefall is amd-s leszdon't tell me what i can't do!
-
Abu85
HÁZIGAZDA
válasz fatallerror #35 üzenetére
A DiRT Showdownban a forward+ lighting legjobban akkor látszik, ha este van, és szépen be van világítva a pálya. Nappali pályaviszonyok mellett már annyira nem szembetűnő. Az F1-en igen sokat dobna ez az egész a sötét pályákon, de ebből nincs sok. Maximum a GI implementáció miatt érné meg bevetni.
Majd még meglátjuk, hogy hogyan alakítjuk át a tesztplatformot. A mik jönnek még nincsenek pontosan eldöntve. Ami biztos, hogy a Shogun 2 megy a Kepleres problémák miatt. A régi sebességesést kijavította az új NV driver, de az új patch frissített megvilágítási rendszert tartalmaz, ami furcsa akadásokat okoz a Kepleren. Az már nem érdekel minket, hogy ki a hibás. Úgy nem jó tesztre egy játék, hogy pár héten belül két komoly hiba is adódik a Kepler teljesítményével. Helyette nagyon valószínű, hogy Anno 2070 lesz. Ez kb. el van döntve, de ennyi.
Nem a Hitman a titkos cím, az már nem titok, ami fent van a game.amd blogon.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
fatallerror
addikt
szerintem ettől függetlenül használni fogják, bár én csak megszívnám a jelenlegi gépemmel xD
az anno 2070 mit tud h jó tesztelni?hmm akkor szerintem nem fog érinteni engem az a játék mert amikről tudok h amd-s és érdekel is az a hitman : D firefall még nem tudom h milyen lesz
don't tell me what i can't do!
-
huskydog17
addikt
Ha már szóba került a Dirt Showdown, mint új szoftver a teszt környezetben, akkor esetleg a Ghost Recon: Future Soldier-nak is van esélye bekerülni? Tudom, hogy jelenleg elég komoly problémák vannak vele PC oldalon, csak érdekelne, a dolog, hiszen amint azt korábban is írtad, ez az egyik olyan játék DX11 területen, amely nagyon nagy mértékben épít a compute teljesítményre, ráadásul ebben is van Global Illumination. Tök jó lenne látni, hogy a mai modern VGA-kra milyen hatással van ez az effekt e két új játékban.
Gameplay csatornám: https://www.youtube.com/channel/UCG_2-vD7BIJf56R14CU4iuQ
-
Abu85
HÁZIGAZDA
válasz fatallerror #37 üzenetére
Az Anno 2070 legalább olyan szép mint a Shogun 2. Azt nem mondanám, hogy jobb tesztelni. A Shogun 2 könnyebb, de ez van. Ha nem működik jól, akkor kikerül.
Sok dologról nem rántotta még le a leplet az AMD. Igazából nem túl nehéz a címeket behatárolni. Az AMD-nek általános szerződése van a Codemasters, a SEGA és az Eidos/Square Enix kiadókkal. Szóval ha egy játékot ők adnak ki, az potenciális GE jelölt. A fejlesztők között a Robot Entertainment, a Hidden Path Entertainment, a Creative Assembly, a Nixxes Software, a Rebellion Developments, a Zombie Inc., a Firaxis Games, az Illfonic, a Turbine, a DICE, a Danger Close, a Volition Inc., a Remedy Games, a Starbreeze Studios, a Supergiant Games, a Relic Entertainment, a KingsIsle Entertainment és a Reality Pump az állandó partnerek. Ezenkívül vannak az egy-egy címre szerződött partnerek, akik főleg a fenti kiadótrió miatt kerülnek bele a partnerprogramba, például a Gearbox Software az Aliens: Colonial Marines miatt (az Alien jogok a SEGA-nál vannak). Vagy például a BioWare, akik főleg Gaming Evolved partnerprogramon belül dolgoznak. Itt a helynek is szerepe van. Az AMD-nek van montreáli bázisa, és a BioWare központja is Montrealban van. Ez amolyan kellemest a hasznossal kapcsolat.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz huskydog17 #38 üzenetére
Nagyon körülményes a GR: Future Soldier tesztelése, és a PC-s verzióval problémák vannak, ahogy említed is. Igazából egyik sem szól mellette. Nem vetettük még el, de kicsi az esélye, hogy bekerül.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
veterán
Erdekes amiket irsz, de be kell lassam, hogy igazad volt.
Bar hozzateszem, hogy amikkel en jatszom oda jobb az nv. Viszont most allok vga frissites elott es gondolkodom, hogy mi legyen. A gtx680 az ara miatt felejtos. A 670 ok, de most nezem, hogy a 7970 mar olcsobb is. Mivel engem a fogyasztas nem annyira (semennyire) nem izgat), lehet el kene gondolkodni a 7970-en...Szerinted mennyi az eselye, hogy bukik ez a GCN es mondjuk egy teljesen mas iranyt vesz a fejlesztes? Vagy akarmerre megy is tovabb nagyot nem zajozhatok vele...?
Gondolom a 3Gb vram boven eleg lesz egy darabig...Koszi
Addig gyorsítottuk a világot míg mi magunk maradtunk le...
-
Abu85
HÁZIGAZDA
Én korábban már kifejtettem, hogy szerintem sem a GCN, sem pedig a Kepler fejlesztésénél nem játszott főszerepet a VGA-piac.
A Kepler a compute hatékonyság szempontjából egy butított Fermi. Tisztán látszik, hogy a harmadolt shared memory teljesítmény, és a változatlan össz. regiszterterület a tranzisztorspórolásra ment ki. Emellett még bedobott az NV pár trükköt szintén a tranyóspórolás miatt (szoftveres pre-decode), és sikerült megoldani az interpolálással kapcsolatos teljesítményt, ami most már valszeg sosem lesz szűkös. A mérhetetlen tranyóspórolás arra ment ki, hogy sikerüljön egy olyan architektúrát csinálni, melyet be lehet dobni a következő Tegrába. A G80 leszármazottakat és a Fermit nem lehetett. Mindkettőnek nagy volt a pJ/FLOP mutatója, és egy bizonyos szint alá nem lehetett őket skálázni. A Kepler megfelelő lehet. Az biztos, hogy nem változatlanul kerül majd a Tegra 4-be ez az SMX, de jó a kiindulási alap, így ezzel már szépen lehet játszani. Az meg az ultramobil szinten senkit sem fog érdekelni, hogy gyenge a shared memory teljesítmény. Az ARM-os konkurenseké sem lesz jobb, vagy ha az is lesz, akkor nem sokkal.
A GCN-ről ugyanúgy elmondható, hogy nem éppen VGA-ba illő rendszer, csak más viszonylatban. Ennek az architektúrának a shared memory teljesítménye pokolian nagy ... ötszöröse a Keplernek. Az össz. regiszterterület óriási. A Tahitiben 8 MB-nyi regiszter van, ami négyszer több, mint a GK104-ben. Ezzel brutálgyors a context switch. Az igazán nagy érték viszont a cacheszervezés. Blokkonként megosztott külön skalár és utasítás gyorsítótár, nagyon tempós, írható L1-L2. Kvázi olyan, mint egy processzor cacheszervezése, csak kisebb méretű tárakkal. Ezek együttesen hozzák össze a durva compute hatékonyságot. A GCN viszont tartalmaz érdekes dolgokat. Az AMD úgy tervezte, hogy támogassa a C++ nyelvet, a virtuális funkciókat, a kivételkezelést, a rekurziót, valamint a pointereket. Ezenkívül a rendszer elhagyta a dedikált branch control egységet és a VLIW elvet. Előbbi helyére bekerült egy skalár processzor, így a GCN ma már úgy kezeli az elágazásokkal tarkított kódot, mint egy központi processzor. Tulajdonképpen, ha összehasonlítjuk a GCN és például a Barcelona processzormag logikai felépítését, akkor rá lehet jönni, hogy annyira nincs is nagy különbség. A két rendszer felépítése más, hiszen az egyik TOC (GPU), míg a másik LOC (CPU) elvet követ, de pusztán a logikai működésben már nem lehet azt mondani, hogy a GCN nagyon különböző lenne. [link] ... Az AMD-t tehát a tervezésnél az vezérelte, hogy mi az amit jó lenne betenni az APU-kba, és ezzel összességében csökkenthető lenne a pJ/FLOP mutatója a chipnek.Szóval összességében egyik sem az az ideális VGA-ba szánt rendszer, legalábbis én 2012-ben nem ilyen VGA-kra számítottam. És főleg nem arra, hogy ekkora különbség lesz a két architektúra között. Szerintem valahol a kettő között van az ideális egyensúly, de annyira pici a szegmens, hogy a cégek más piacokra terveznek, aztán ami kialakul a tervből az jó lesz VGA-nak. Nagyjából ez a lényegi fejlesztési stratégia a VGA-piacon. Főznek egy architektúrát a távoli tervek szerint, aztán összedobnak rá egy dedikált GPU-t ... hogy az milyen lesz kvázi lényegtelen, ha az architektúra beváltja a hozzá fűzött reményeket.
A kérdésed igazából játéktól függ. Az biztos, hogy a 2012-ben eddig megjelent DX11-es játékok inkább a GCN-nek kedveznek, és ha azt nézzük, hogy a Win 8-cal a fejlesztők kapnak egy shader-trace interface-t a DX11.1-ben, az is a GCN-nek kedvez közvetve. Ez ugye csak a DirectCompute programok teljesítményének kielemzésére lesz, de a fejlesztők kérték, mert jelenleg azért nem bírnak a mostaniaknál bonyolultabb kódokat írni, mert az aktuális fejlesztőeszközökkel nehéz követni, hogy hol kellene rajta optimalizálni. A lassú kódot pedig senki sem szereti. Nyilván néha lassú lesz, de nem azért, mert így tervezték a normális gondolkodású fejlesztők, hanem mert így alakult. A Kepler a geometry shader kódokban jobban kell, hogy működjön, legalábbis elvi adatok alapján erre következtetek.
Az effekteket a játékokban sokféle módon meg lehet oldani. Ma már erősen programozhatók a GPU-k, így jellemzően a fejlesztő dönti el, hogy mely opciót választja. Ezt több tényező befolyásolhatja. Nyilván egy multiplatform címnél komoly szempont szokott lenni, hogy az adott eljárás ne csak PC-n legyen megvalósítható. Erre a valós idejű GI manapság elég jó példa. Ott a DiRT: Showdown és a Ghost Recon Future Soldier. Mindkettő eltérő algoritmust használ, de közös bennük, hogy DirectCompute-tal gyorsított effektről van szó. Na most egyik program GI effektje sem érhető el konzolon. A Far Cry 3 GI effektje például szándékosan olyan, hogy konzolon is fusson. Éppen ezért a referenciaalgoritmus egy 2003-ban publikált megoldás. Nyilván minőségben nem fogja elérni a sokkal újabb DiRT: Showdown és Ghost Recon Future Soldier GI implementációjának szintjét, hiszen ezek jóval újabb algoritmusok, de a Far Cry 3 megoldása működik konzolon. PC-re pedig felskálázható az effekt. 2006-ban Emil Persson csinált is rá egy DX10-es implementációt az R600-hoz [link], és erre az algoritmusra építette az AMD a Ping-Pong demót: [link]. Alapvetően a rendszer capture pontokat használ, amely rácsot alkot. Ha renderelsz egy vertexet, akkor a környezeti színt a rács információi alapján számolja a rendszer. A DX10-es implementáció abban különbözik, hogy a pontokhoz rendelt cube map leképzését geometry shaderrel gyorsítja.
3 GB az elég. Szerintem, ha nem használsz extrém magas felbontást, akkor 2 is.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
dergander
addikt
bár mivel te nv fan vagy igy nemis fogsz AMD-t venni,de tény hogy a jövő megkezdödik a GCNel és a showdown még csak a kezdeti fázis,én az nv helyébe kicsit idegeskednék hogy a jövöbe a 140.000 forintos kártyájuk csak a 75.000+ forintos 7870 szintjét hozogatja...
Énis nv mellet voksoltam már igen réged,de az AMD megerősödni látszik és találtak valamit ami jó irányba halad,sajna az nv nemtalálja a fonalat.
Mellesleg a 3D mark egy program,játszani nemtudsz vele,semmire nemjó csak hogy az intel + nv kártyákra több pontot ad ez igy volt már a 3dmark06tól kezdve szóval nem mérvadó,lesz bőséges játékok még Tomb Raider,Alien,GTA5,assassin creed lehet falatozni lehet kártyákat venni
-
Abu85
HÁZIGAZDA
válasz dergander #45 üzenetére
Tudja az NV is, hogy mit csinál. Terveztek egy megfelelő mutatókkal rendelkező architektúrát a Tegrához. Később nekik is lesz olyanjuk, amilyen a GCN, és azt majd társítják a Denver CPU-magokkal.
Ha csak a VGA-piac alapján ítéljük meg a rendszereket, akkor most nem jó képet kapunk, mert - ahogy kifejtettem fentebb - egyik architektúra sem az a tökéletes VGA-ba illő megoldás.
Valójában a kitűzött célnak mindkét architektúra megfelel. Az a fontos, hogy meg kell érteni, hogy ma már nem a VGA-piac meghódítása a cél. A VGA-piacon a nézőponttól függ, hogy melyik cég szakemberei tűnnek infantilis idiótáknak, de ha megértjük, hogy milyen céllal születtek az architektúrák, akkor jóval árnyaltabb a kép, és ki lehet jelenteni, hogy jó munkát végzett mindkét vállalat.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Z10N
veterán
válasz csucsbicep #25 üzenetére
Erre varok en is egy 7790/7830 (768/896) $200 kornyekere es 100W koruli fogyasztassal.
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
Artyy
csendes tag
A 7770-ellen szerintem a GTX 650-et várd. Inkább a 7750-et fogja befogni az erősebb GT640. Az Nvidia GT640 OEM-termékében a GDDR5-nek 5 GHz memória-órajele van a 1782 MHz-hez képes. Ebből elég logikus, hogy nem a GK107-tel lesz a baj, hanem igen gyengére lett szabva rossz árazással.
Amúgy a cikk valamennyire megerősíti, hogy valószínűleg ez lesz a GK106, GTX660 speckója. [link]
A GTX660 Ti meg GK104-el jön. [link] -
Manbal
senior tag
válasz matteo_szg #6 üzenetére
Nem hiszem, év vége felé már kopogtat az ajtón a 8xxx széria...
-
FRENK1988
veterán
Kis állóvíz felzavarás jó lenne már
Nem a lóerő öl, hanem a NYOMATÉK! :)
Új hozzászólás Aktív témák
- Milyen széket vegyek?
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Támogatja a legújabb Windows frissítést az új AIDA64
- Windows 10
- Az ár/érték bajnok Galaxy A52-re is kész a One UI 6.1
- Mini PC
- Külpolitika
- Megérkezett a legújabb és eddigi legátfogóbb 3DMark teszt
- Microsoft Excel topic
- Gumi és felni topik
- További aktív témák...
Állásajánlatok
Cég: Alpha Laptopszerviz Kft.
Város: Pécs
Cég: Ozeki Kft.
Város: Debrecen