- Felpörög az asztali CPU-piac a következő pár hónapban
- OLED TV topic
- Épített vízhűtés (nem kompakt) topic
- Milyen billentyűzetet vegyek?
- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
- Nvidia GPU-k jövője - amit tudni vélünk
- TCL LCD és LED TV-k
- 3D nyomtatás
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- AMD Navi Radeon™ RX 6xxx sorozat
Hirdetés
-
Már tudjuk, hogy mikor jön a PC Gaming Show 2024
gp Alig több mint egy hét múlva jön az esemény, amelyen több tucat játék bemutatójára számíthatunk.
-
Nagyobb lesz az új Oppo Pad
ma A nagyobb kijelzővel és Snapdragon 8 Gen 3-as szettel készülő Oppo Pad 3 errefelé majd OnePlus színekben várható.
-
Tovább csökkent a globális tévépiac
ph Az idei első negyedévben kevesebb televíziót adtak el, mint egy évvel korábban.
Új hozzászólás Aktív témák
-
Laja333
őstag
AMD: "Legyenek kihasználtabbak a hardverek, csináljunk új API-t, ne várjunk MS vánszorgására"
NVIDIA: "Mesterségesen generáljunk nagy hardverigényt, hogy drágább kártyát vegyenek az emberek"Komolyan az NVIDIA-sokat jól nyakon kéne vágni egy hatalmas péklapáttal. De azokat is, akik őket istenítik.
NVIDIA filozófiáját már láthatjuk is a WD-ben. Witcher 3-hoz 780ti SLI-nél ne adjatok alább, esetleg egy FHD medium szinthez elég lesz.
Nem AMD fan vagyok, hanem "nem-NVIDIA-s". Hányok az NVIDIA-tól, gusztustalan cég.
-
jacint78
addikt
Szokásos abu cikk, az AMD az isten az nvidia meg a gonosz..
type your text here..
-
Abyssus
csendes tag
Tényleg hihetetlen...
Pár ember itt okoskodik, hogy az AMD sz*r, de azt nem veszik figyelembe, hogy direkt úgy írnak meg mindent az nvidiánál, hogy az AMD-nek nehezebb legyen drivert írni az adott programra.
Micsoda pánik törne ki, ha mondjuk a Battlefield 4 nem úgy futna nvidián, mint AMD-n.
Az is feltűnt, hogy amióta a Ubisoft és az nvidia "szövetségben" vannak, azóta sorra jönnek ki az optimalizálatlan Ubisoft játékok. Az egy dolog, hogy a Watch Dogs nem fut gyönyörűen az AMD kártyámon, de hogy azt hallom, hogy másnak egy 770-nel jobban laggol, mint nekem, az durva.
A végén pedig kijelentem, hogy én sem vagyok nVidia ellenes, de ez azért pofátlanság. -
buherton
őstag
Ezt már a kezdetekkor meg lehetet jósolni, hogy előbb-utóbb összefog nőni, mert gazdaságosabb. Kevesebb vezetősáv, sokkal kevesebb PCB tervezés, és két IC helyett egyet kell fejleszteni, egy hűtés. Szitne csak előnye van, kivéve azt, hogy nem lehet variálni a CPU-GPU párosokat. Csak időkérdése. Sőt várom már, hogy mikor fog a déli híd is bekerülni a kalap alá.
tely, baly, fojó, mennyél, mingyárt, telyföl, tolyás, malyd, kapú, egyenlőre, ejsd, jáccani, ahoz, fúj, hüje, muszály, alat, álok, lasan, fojtatás, ál, fontós, költsön, eggyüt, lyob (jobb?), mek, mongyak, milyért - !!! Tanúlyunk már meghejjessen irni... !!!
-
Snip3r_HUN
addikt
A GameWorks csomag a közhiedelemmel ellentétben nem a konkurenseknek szeretne ártani, csupán azt a célt szolgálja, hogy az egyes effekteknek mesterségesen nagy legyen a hardverigényük. Az NVIDIA számára a játék gépigényét csak úgy kell kialakítani, hogy az az éppen aktuális piaci viszonyoknak megfelelő legyen, ezzel kényszerítve új hardver, ezen belül is új VGA (lehetőleg valamilyen GeForce) vásárlására a PC-s felhasználókat.
Az amd-s címek átlagban jól futnak nvidia-n is, fordított esetben ez sajnos nem mindig mondható el...
[ Szerkesztve ]
In space, no one can hear your coils whine... | HP Omen 15 | PS4 Slim 1TB | Huawei P20 Pro
-
Laja333
őstag
Vágom...
"A neten terjedő információk 86%-a hazugság" - Nikola TeslaDe azért még látom hogyan futnak az AMD játékok NVIDIA-n és fordítva.
Ráadásul a saját feature-üket erőltetik mindig a fejlesztőkre, a piacon lévő szabadon használható általános megoldás helyett. Ami persze csak az ő kártyájukon fut...
Hol látsz ilyet AMD-től?
Sorolhatnám még azokat a dolgokat, amit AMD jól csinál, NVIDIA meg nem. Fordítva ez nem lehetséges. -
nagyúr
Azt azért tedd hozzá, hogy az AMD Mantle (legalábbis rövid távon biztosan) csak és kizárólag az AMD hardware-ein fog futni. Innentől kezdve megint ott tartunk, hogy ha más módon is, de ugyanazt akarják, mint az nVidia.
Ami persze csak az ő kártyájukon fut...
Hol látsz ilyet AMD-től?Mantle. Hogy tovább ne menjek...
[ Szerkesztve ]
Légvédelmisek mottója: Lődd le mind! Majd a földön szétválogatjuk.
-
Abu85
HÁZIGAZDA
Jap, mindketten csak életben akarják tartani a piacot. Semmi személyes, ez csak üzlet. Mindkét koncepció egy rendkívül durva beavatkozás a fejlődésbe, mert ezek nélkül meggyőződésem, hogy más lenne a jövő.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
KAMELOT
titán
Ez szerinte van! És mivel akar játszani? Az IGP-vel???
Vagy esetleg a nagy cégenek minek a dVGA? Szerintem azzal számolnak jó pár cuccot!
Majd ha az IGP tudni fog legalább 5 TFlops-ot akkor el lehet hagyni a dVGA-kat!V1200 - 18CORE - SUPRIMX
-
jacint78
addikt
válasz Snip3r_HUN #7 üzenetére
Az amd-s címek átlagban jól futnak nvidia-n is, fordított esetben ez sajnos nem mindig mondható el...
Így van, nagyonjó példa arra, hogy az AMD mennyire elvérzik, ha nincs a programra írva a driver minden egyes bit-je.
type your text here..
-
Madárpók
aktív tag
Azt azért megnézném, hogy hogyan fognak egy APU-ba belepréselni mondjuk egy FX-8350+R9 290x teljesítményű kombót. Valami hatalmas lenne a lapka, vagy 200-400W TDPvel
-
Laja333
őstag
Bármelyik gyártó elvérzik, ha nincs a vasukra írva minden egyes bit... Épp ez benne a lényeg.
Most ebből a szemszögből nézd meg az AMD és NVIDIA játékokat.Madárpók azt elképzelted volna 3-4 évvel ezelőtt, hogy pl A10-7850K teljesítményű APU-k jönnek majd?
Vagy hogy egy APU elég lesz egy friss AAA játék FHD medium-high beállításra?[ Szerkesztve ]
-
Mr.Herold
tag
Lásd #9-es hozzászólás...
Szerintem az is közrejátszik a "rosszul fut az amd-n" betegségben, hogy az AMD, elriadva a GameWorks-s címtől kicsit lustábban vette a kötelességét az érkező játékok esetén a felkészítő optimalizálással.
"Úgy is GW-s, ha kijön és szarul fut, majd azt mondjuk azé mer ződ."
Az nVidia meg ráül ezeknél a játékoknál arra, hogy minél jobban menjen a kártyáikon. Az AMD is megtehetné? Meg.Mondom mindezt úgy, hogy már 10 hónapja AMD kártyám van...
{signature}
-
fanti
addikt
A dedikált GPU-k fejlesztését, mi játékosok tartjuk életben.
És ugye mi arra vágyunk, hogy egy játék adjon valósághű élményt grafikailag is, vagy fotorealisztikusat, akár extrém nagy felbontásokban is.Úgyhogy én nem értek egyet Linus Torvalds véleményével, szerintem igenis tovább fognak élni a dedikált GPU-k, és ugyan valamivel lehet hogy lassulni fog a fejlesztésük, de igény mindig lesz rájuk, mert a játékosok igényeit úgysem fogja tudni kielégíteni maximálisan egy IGP, és nem is arra tervezik őket.
[ Szerkesztve ]
GIGABYTE B550 Aorus Pro, AMD Ryzen 9 5950X, Noctua D14, Crucial Ballistix 4x16GB DDR4 3200Mhz@3800MHz CL18, Powercolor 7900XT, M.2 Samsung 981 2TB, M.2 Kioxia (XG6) 2TB, 2 x Intel 730 SSD 480GB, Crucial MX500 2TB, SEAGATE SkyHawk 6TB, 750W Gigabyte Aorus Gold, Evolveo T4, Samsung S43BM700UUXEN
-
#06658560
törölt tag
Az említett APU-k szépek, jók, de nem alkalmasak minden feladatra. Egyesekre soha nem is lesznek jobbak a diszkrét megoldásoknál. Ezen területek jellemzően ma is drága megoldásokat használnak VGA-ból is.
#18 fanti : nem, NV oldalán rég óta nem a játékosok a fókusz.[ Szerkesztve ]
-
tegbashar
tag
Kezdetnek kijelenteném, hogy nem vagyok fejlődés ellenes. Szeretem az új technológiákat, mindent be is húzok amit megengedhetek magamnak.
Ezt az évente új gpu-ra van szükség elméletet azonban nem tudom megérteni. Szerintem, ha több játékfejlesztőnek gondja van az aktuális technológiával, akkor kellene fejleszteni - nem pedig a fejlesztőknek kéne követni az évente megújuló trendeket.
Én C64 majd Amigán kezdtem a játékot, valószínűleg soha nem lett volna igényem jobb grafikára, ha nem tolják bele az arcomba.
A játékfejlesztést is visszaveti ez a versengés, mert sok cég az új ötletek helyett pusztán új grafikai elemekkel képzeli az megújulást, aminek költségei viszont tönkrevágják a kicsi és esetleg egyedibb játékfejlesztőket.Szerintem mindenki meglenne Lara szélfútta haja ragyogó nézetei nélkül, persze akkor meg azon kellene agyalni, hogy milyen tényleges játékelemekkel fogják meg a vásárlóközönséget.
Erős példa erre a World of warcraft, ha jól tudom 1999-ben fejlesztett grafikus motor hajtja (nyilván tupírozva lett itt-ott) és mégis leköti az előfizető játékosok több millióját, meg a privát szerveren játszók több tízmillióját.
Szerintem nincs még egy játék a PC iparban, amit az évek során összesen ennyien játszottak volna(hadd zárjam ki a fekete macskát és az aknakeresőt).Persze megértem azt is, hogy a nagy fejlesztő cégek nem élnének meg, ha még mindig csak uj dlc-ket adnának ki a Half-life, NFS meg fene tudja milyen játékhoz még - de nehogy már a farok csóválja!
Továbbá én nvidia párti vagyok. Nincs meg a kellő szakértelmem, csak a márkahűségem - ami az Intelhez köt. Az AMD behúzta az ATI-t, ezzel engem kizártak a célközönségükből.
Mivel csökken a dedikált vga iránti igény, lehet sírás helyett a zöldeknek/pirosaknak nem kéne erőltetni a borzalmasan gyors léptékű fejlesztéseket...
Lehet pár évvel később a GTX2790XÜBER videókártya által hajtott 128K, 400" monitorfalamon visszaolvasva ezt a hozzászólásomat még magamat is kikacagom, de most mintha elégnek tűnne a 780/fullhd
[ Szerkesztve ]
-
Attix82
őstag
Valamennyire örülök is ennek mert így legalább nem jön ki félévente új VGA és ezzel együtt csak durva értékcsökkenéssel lehetne csak eladni a meglévő VGA-t.
Jelenleg egy HD7970 ami 2,5 éves termék, még most is tökéletes mindenre teljes részletességbe. Természetesen ha nincs rendkívül szarul megírva a program.
Mantle az AMD részéről egy nagyon jó lépés volt a DX szembe, amivel elérte , hogy ne keljen rohadt drága konfig egy játék normális futtatásához. Ezzel is pénzt spórol a nagyközönségnek / többen vásárolnak alsó / középkategóriás terméket.
-
Egon
nagyúr
válasz Snip3r_HUN #7 üzenetére
Az idézett mondat olyan durva csúsztatás, hogy ezért akár perelhetne is az nV (persze ha angol nyelvterületen, nagy olvasótáborral rendelkező site-on jelent volna meg - nyilván egy relatíve kicsi magyar oldallan a kutya se törődik).
A Gameworks "alapvetően a cég eddigi fejlesztőkörnyezeteit kínálja egy teljes szetten belül".
" A sajtó, különösen az ExtremeTech nagyon sérelmezi, hogy a shader kódot is csak az NVIDIA láthatja. Ez így valóban rendkívül problémás dolog lenne, de a történet nem teljesen fedi a valóságot. Az NVIDIA ugyanis nem zárja el a forráskód egyes részeit a fejlesztőktől és a konkurenciától sem, csupán a módosítás lehetőségét tiltják meg."
Ergo ha valamilyen pofátlan butítást alkalmaznának a zöldek, azt könnyen ki lehetne szúrni, és akkor az AMD által kilóra megvett fejlesztők, Johan Andersson-nak az élen, már régesrég telesírták volna a sajtót... Mivel ilyen nem történt, a következtetéseket mindenki vonja le maga.Szerk.: az idézetek a prohardverről származnak, a korábbi Gameworks-ös cikkekből.
A cikk címére reagálva: a dedikált GPU-k szerint Linus Torvalds-nak nincs jövője... Az Intel is bízott a NetBurst architektúra 10 GHz-ig történő skálázhatóságában, és mintha Bill Gates és a 640 kB RAM kapcsán is rémlene valami nem túl jövőálló megállapítás...
A viccet félretéve, jó eséllyel tényleg eltűnnek majd a dedikált GPU-k (egy időre...), de a folyamat messze nem lesz olyan gyors, mint ahogy 2-3 évvel ezelőtt tűnt - majd ha az Intel is (komolyabbat) lép ezügyben, lehet változás...[ Szerkesztve ]
"Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)
-
Dr.Momo
tag
Pont ez a lényeg, hogy a mélyebb integrációnak, könnyebb programozhatóságnak (és a modern API-knak) köszönhetően nem kell majd akkora számítási teljesítmény, hogy ugyanolyan (vagy csak közeli) minőség mellett hasonló sebességet tudjon. Szerintem a jövőben nagyban fog hasonlítani a PCs játékvilág a mai konzolokhoz (PS4, XBO).
-
sanzi89
addikt
"Az AMD és az NVIDIA „lélegeztetője” is nagyon drasztikus beavatkozás a fejlődés normálisnak ítélt menetébe, amivel nem kötelező egyetérteni, de ez az egész csak üzlet."
A user-ek se azért nem vesznek dedikált VGA-t, mert nem szeretnének mosolyt csalni a VGA gyártókra, ez az egész csak üzlet.
"Mindent azért kell tudni mert kérdezik, nem azért mert hasznos."
-
ata_k
csendes tag
Én sem értek egyet vele, hiszen a hardverigényeket mesterégesen nagyra
opti... programozzák
De ha mégis az történne,amit az említett úr mondott,a lényegen nem változtatna: üzlet,és nem a mosolyunkért.[ Szerkesztve ]
-
Egyik érintett sem a játékosok mosolyáért fejleszt
Csakhogy említett érintettek addig élnek, amíg mi, játékosok mosolygunk. Nem kínunkban (átnevezések meg vicces előrelépés teljesítményben generációk között stb. miatt), hanem örömünkben.
Sent from my keyBoard
-
con_di_B
tag
Ez most csunya lesz, de amennyire tudom Linus nem egy kikopott GPU szakerto, egyreszt. Masreszt megamig nem latom, hogy GDDR 5 + min. 256 bit lesz a rendszermemoria, addig technikailag nincs sajnos mirol beszelni.Alternativ megoldasnak ott van a victim cache, amit az Intel nyomat az Iris Pro-k melle, es nem rossz otlet, de egyertelmuen igenyli, hogy nagyon jo legyen a memoria lokalitasa adott algoritmusnal (ami sosem hatrany, mondjuk), ill. lesz majd meg a stacked DRAM.
Szoval, vegso soron eleg valoszinu, hogy igaza lesz, de (sajnos) nem azert mert az integracio elonyeit annyira popecul ki fogjak hasznalni a fejlesztok (akik eddig sem hasznaltak ki semmit normalisan, ami rendelkezesukre allt), hanem mert az eddig megirt programokra fognak tudni egy elfogadhatobb kompromisszumot nyujtani az IGP-k.
[ Szerkesztve ]
-
Egon
nagyúr
Így van.
Ehhez hozzájön, hogy hosszú távon nyilván fejlődni fognak a buszrendszerek is, ergo egyre kevésbe jelentenek majd szűk keresztmetszetet, és nem kell új programozási modellel szenvedni."Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)
-
Abu85
HÁZIGAZDA
A sajtót nem, de a Twitteren már kitárgyalták, hogy a GameWorks nem jó irány. [link]
A Sajtót azért nem szeretnék ebbe belevonni, mert nem igazán értenék meg, hogy mi történik. A Watch Dogs béna optimalizálását is a GameWorksnek tulajdonítják. Ez nem a sajtónak való téma.Andrew Lauritzen (Intel) is leírta, hogy: "On this point I think everyone can agree that NVIDIA is doing stupid nonsense that needs to be stopped. I fully agree that lowering performance on your own cards because it hurts the competition more is BS, and borderline anti-competitive." Az Intelt nagyon érinti ez, mert nekik a legrosszabb a GameWorks.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Egon
nagyúr
Mindketten tudjuk, hogy Watch Dogs "béna optimalizálásához" az égvilágon semmi köze sincs a GameWorks-nek (annál inkább az Ubisoft-nak) - de hát egyesek minden eszközt megragadnak, hogy rúgjanak egyet a konkurencián...
Innentől kezdve a(z amúgy is AMD-közeli, hogy finoman fogalmazzak) fejlesztők hisztije nem tűnik hitelesnek...
Az Intel-nV kölcsönös szívatás már nem újkeletű (sajnos;ennek több szempontból sem örülök). Az nV szemében én is szivatnám azt a céget, amely hosszú távon a kinyírásomra törekszik - és jó eséllyel sikerrel is fog járni... Másrészt pedig rövid távon a cégek szmpontjából win-win a szituáció: a piaci részesedés alapján igen sokan megveszik az Intel procit + a dedikált (pl. nV) vga-t, ami még mindig gyorsabb az APU-knál, Mantle alatt is, így bizonyos tekintetben a vásároló szempontjából is win a helyzet, nemde?[ Szerkesztve ]
"Bonyolult kérdésre egyszerű választ keresni helyénvaló, de ritkán célravezető megoldás" (Wayne Chapman)
-
Abu85
HÁZIGAZDA
Ezt mondom én is. Amikor írtam egy cikket, akkor abban leírtam, hogy a játék optimalizálására két effekt nem nyomhatja rá a bélyeget. Azért sem, mert ha kikapcsolod őket, akkor nem kap szárnyra a WD. Nem szabad a sajtóba ezt levinni, mert nettó baromság, hogy a Watch Dogs a GameWorks miatt ilyen, pedig hány médium megírta.
Akkor, hogy a nevek kiket takarnak:
Timothy Lottes - Epic Games
Kostas Anagnostou - Radiant Worlds
Bart Wronski/Michal Drobot - Ubisoft Montreal
Angelo Pesce - Relic Entertainment
Mindegyik felsorolt stúdiónak az NV-hez van inkább köze. De ettől még ők leírhatják a véleményüket. Szerintem bárki egyetért azzal, hogy saját termékek teljesítményét visszafogni csak a külső tényezőkre való reagálás miatt a mélypont a rossz ötletel tárházában.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
con_di_B
tag
Bizonyos ertelemben pont, hogy a dGPU-k jelentosegenek es terenek (ertsd, elfordulasi gyakorisag) elvesztese szuli a szoftverfejlesztesi problemat, es nem forditva.
Az iGPU egy nagyon eros uzleti erdek, amit legfokeppen az motival, hogy a desktop "elirigyelte" a mobil SoC-k felepiteset es az azzal jaro egyszerusiteseket, amit meg is tudok erteni, foleg kb. a subnotebook kategoriaban.
Ezen kivul, az integracio lehetove tesz egy csomo uj programozasi modellt, amiket mind messzemenokig tamogatok, azonban a valosag nem az az ertelmezes, amit a sajto nagyon szeret nyomatni, hogy szerencsetlen fejlesztok alig varjak, hogy raugorhassanak a temara (maguk a programozok tenyleg, de ez senkit nem erdekel), mert a szoftveren mindenki ugy sporol ahogy csak tud, leven rendkivul kockazatos beruhazas (GPGPU foleg), valojaban mindenki (a keszgep osszeszerelokon kivul) akkor lett volna legboldogabb, ha maradtak volna a dGPU-k mint egyeduli ertelmes lehetoseg, es ugyanazoknak a grafikus motoroknak az n+1. generacioja is tok jol skalazodna az elorheto gepparkra.
De nem skalazodik, mert elterjedtek az iGPU-k, szukos memoriasavszelesseggel, stb. Es amikor jon a b+, hogy rosszul fut a cucc, akkor nyilvan nem az lesz a valasz, hogy "jah, igen, bocs, valojaban mar 6 eve GPGPU programokat kene irnunk csak nem ebredtunk idoben", hanem az, hogy "sz*r az API, de nem akarunk gyokeresen uj dolgokat megtanulnui/ujrairni, adjatok jobbat, de azert elegge hasonlitson a mostanira".
Mert azt sem szabad elfelejteni, hogy az OpenGL sem azert oskovulet, mert ennyire konzervativ mindenki, hanem mert az altala leirt absztrakcio alapvetoen nagyon sikeres, rendkivul sok, nagyon eltero belso mukodessel rendelkezo hardvert sikerult egysegesiteni vele. Ennek nyilvan megvan az ara a hatekonysag teren, de ezek szepen lassan fejlesztheto dolgok. Az absztrakcio fobb elemein egyebkent sem a Mantle (amennyire tudom), sem a Metal nem valtoztatnak, szoval ezek az API-k egyelore nagyon nem a csodalatos osszeintegralt GPGPU korszakot hozzak el, csak tuzoltasok.
-
polika
senior tag
Összevissza irkálnak itt sokszor a prohardveren. Egyrészt mindig elmondják, hogy AAA játékokat csak inhouse saját enginnel stb. Aztán jön az hogy a gameworks azért van hogy mesterségesen magas hardverigényt generáljon.
Namármost az AAA kategóriás játékoknál nem számol hogy van gémworks vagy sem a fentiek alapján, a többi futottak még kategóriánál meg ha a gépigény durvább egy AAA-s gémnél akkor az emberek leírják a játékot, mert szarul optimalizált játék, vagy kikapcsolják az extra ficsört, viszont jellemzően ezek kisebb gépigényű játékok. Azaz miről beszélünk? Az NV saját maga alatt vágja a fát ha csak gépigény van de nem jár cserébe olyan csillivilli effekt, ami miatt vérpistike aszondja hogy ezzel ezerszer nagyobb a játékélményem mint nélküle. Nem vagyok NV párti (most se vennék NV kártyát mer a kis hülyék nem tudnak szabványoknak megfelelni) de ilyen alapon akkor az anti alias meg minden effekt csak a gépigények mesterséges növelése miatt van a játékokban.
-
Szatyor95
aktív tag
Ha már Linus Torvalds és nVidia...
Szerintem egyébként ha nem is a közeljövőben, de igaza lesz. A számítástechnika mindig fejlődni fog, mindig lesz még mit kitalálni. Már most ott tartunk, hogy néhány APU 1-2 éves játékokat is tud futtatni, igaz, nem maximumra csavarva, FullHD-ben.
[ Szerkesztve ]
Nyugodj békében Integra!
-
Abu85
HÁZIGAZDA
Vérpistike azt sem tudja, hogy hogyan kell bekapcsolni xy effektet. Tényleg. Az NV saját a kimutatása, hogy csak a vásárlóik tizede képes a játékot natív felbontásba kapcsolni, mert a többi ember vagy nem ért hozzá, vagy nem törődik vele. Szerintem az AMD-nél is ilyen az arány, de erről nincs adat.
Ezért öl pénzt az NV és az AMD is ezekbe az Experience meg Gaming Evolved applikációkba. Egy "optimalizálj" gombot meg tud nyomni a potenciális vásárlóbázis nagy része. MÉG!Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Peter13
senior tag
Én egyszerűen azt nem tudom megérteni hogy hogyan fog mindez egy lapkába beleférni. OK, pusztuljon a dedikált VGA, máglyára vele! De azért ahhoz előbb ki kéne termelni azt ami kiszorítja, nem? Ígéretekkel nem lehet játszani, sorry. Kódolni sem. És a mostani legerősebb APU is csak alulról karcolgatja a középkategóra butított képviselőit (mert ugye tisztességes RAM-al megtámogatva már esélye sincs, még az ellen sem).
Ja, a fejlesztés meg az ő költségei. Miért is kell minden évben új VGA generáció? Különben megáll a Föld forgásában vagy mi? MI ez a hülyeség? Miért nem elég az aktuális, kiforrott generációt forgalmazni amíg igény és fizetőképes kereslet van rá, és/vagy amíg az új, valamilyen szinten (sebesség/fogyasztás/gyártási költségek/tenchikai tudás) érdembeli ujdonságot nyújtó generáció elkészül? Nem tudom ki kezdte el ezt az erőltetett "újítsunk évente de mindenáron" mozgalmat (és vele az átnevezgetősdit), de irgalmatlanul farba kéne rúgni. A feljődés jó dolog. A feljődés eröltetése, illetve megizélése viszont nem.
"No, I'm not immortal: I'm just not good at dying..."
-
steven84
tag
Nincs ma értelmes teljesítményű integrált megoldás, nem értem miért erőltetik a dedikált vga-k megszünését.
Rengeteg játékos van, sőt ők mozgatják a pc piac fejlődését.
Az integrált szutykok használhatatlanok játékra,és minden erőforrás igényes feladatra. . -
kekegsm
őstag
Szerintem is el fognak tűnni a dedikált VGA-k, de az APU-k is, mint ahogy a számítógép többi része is. 2435-ben már gondolatátvitellel játszunk, csak becsukjuk a szemünket, és fut is a WorldOfTank v986.42 , 256K felbontásban.
Okos ez a Linus, így tovább
Lépj ki, lépj be, próbáld meg újra...
-
Abu85
HÁZIGAZDA
Sosem lesz egy IGP olyan gyors, mint egy dedikált GPU. Fizikai képtelenség, mert az egyik esetben 100 watt a keret (amiben még más is benne van), míg a másikban már mehet a 300 watt is.
Linus arról a problémáról beszél, hogy a piac nem elég nagy ahhoz, hogy a VGA-kat fenntartsa. Ha nem lehet kitermelni a beleölt pénzt, akkor nincs értelme a piacnak.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
polika
senior tag
Nana, azért az nagyon is fontos hogy nem egy ütemező lehet a rendszerben amikro a hardver képes arra hogy ne csak egy dedikált CPU szál indíthasson minden GPU szálat, emiatt az API filozófiában gyökeres változásra van szükség. A GPGPU-s filozófia meg a HSA-n keresztül valósul meg, ehhez is kell egy új API hogy képes legyen CPU/GPU egy címtérben dolgozni, és ne akarjon másolgatni még dGPU stílusban a memóriából adatokat mert nincs rá szükség.
Az iGPU szűk keresztmetszet viszont nagyon sokat fog javulni a DDR4-el, ill stacked on die memóriákkal és remélhetőleg az első pár mély integrációs kísérlet után kibuknak a szűk keresztmetszetek és finomhangolják az aktuális technikai lehetőségekre.
Szerintem inkább a nagyobb kihívás az lesz, hogy a mostani 2-300 wattos szörnyetegeket nem lehet beköltöztetni egy APU-ba, a hűtésen olyan nagyon sokat nem lehet már farigcsálni, lehet vizezni, meg egyéb ezoterikus dolgokat, de az egyre nagyobb integrációval egyre kisebb helyen keletkezik egyre több hő, és ha nem sikerül a gyártás technológiával valami nagyot dobni (grafén) akkor ez fogja megakadályozni a fejlődést szerintem.
Összeségében nekem az jön le, hogy az APU-ban is x86-nál is előbb utóbb megjelenik majd a big/little koncepció, és a hardveres szoftveres oldalon a párhuzamosított futás extra terheléseit és problémáit kell megoldani, mert vannak olyan feladatok amit nem lehet párhuzamosan csinálni, és ehhez kell a turbós 1-2 mag magasabb egyszálú teljesítménye, az összes többire meg a sokkal energiahatékonyabb lassabb de sok szálú számolás.
-
Rive
veterán
Hümm.
Izé, van még egyáltalán valódi dedikált GPU? Mármint, ami csak és kizárólag grafikus feladatokat képes végrehajtani?
Ahogy én látom:
- igen, a 'GPU' és a 'CPU' memóriaterület-kezelések logikai szinten végül valóban integrálódni fognak
- nem, ez semennyire se fogja érinteni azt a tényt, hogy néhány feladat - legyen ez grafika, bitcoin, mérnöki munka vagy fene tudja mi a jövőből - igényel majd némi extra számítási kapacitást, amit pl. egy kevesebb CPU-t és több GPU-t tartalmazó kiegészítő kártyával lehet kényelmesen biztosítani.
Igen, a dedikált GPU kihal, de ettől függetlenül lesz olyan kártya - nevezzük akkor nemdedikáltGPU-nak - amit bele lehet rakni a gépbe némi extra kakaó reményében -> akár játék, akár más megjelenítés, akár nyers számítási teljesítmény (akár ez mind együtt) reményében.
Az IGP nem csodaszer. Eleve, a memória-sávszélesség valamint a memória kezelésének módja egy olyan (egyelőre és még sokág megkerülhetetlen) tényező, ami egy hibrid rendszer felé mutat.
[ Szerkesztve ]
/// Nekünk nem Mohács, de Hofi kell! /// Szíriusziak menjetek haza!!!
-
flashpointer
őstag
Oculus Rifttel viszont lehet még életképesebb mert kevésbé számítana csak a látvány és oda elég lehetne egy integrált cucc is.
-
con_di_B
tag
Persze, hogy fontos az aszinkronitas, de meg alapvetoen maskepp kell eloallitani a command listeket, de maga a grafikus absztakcios szint ettol nem valtozik, vagyis az API "grafikus" marad, minden amit csinalsz grafikus fogalmakkal fejezed ki. Illetve vannak compute shadereid, ha mar nagyon nem fersz a borodbe, de nem az az alap.
A grafikus absztrakcionak meg pl. fontos kovetkezmenyei, hogy lehet tile-based renderinget csinalni, van vertex cache, stb. Ezeknek nemhogy nem hasznal, ha direktben lehet pointer buveszkedni, de meg art is.
[ Szerkesztve ]
-
steven84
tag
Nem baj ha csökken az eladás, legalább jobban elkezdik optimalizálni az arhiektúrákat. Nem töri magát egyik nagyobb gyártó se hogy előhozakodjanak félévente valami forradalmi fejlesztéssel.
Új hozzászólás Aktív témák
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Ozeki Kft.
Város: Debrecen