- Minden fejlesztőnek kipróbálható a Microsoft DirectSR API
- Feltűnt a dél-koreai hitelesítésen a PlayStation VR2 PC adaptere
- A soknál is több pénzzel gyorsítaná fel a hazai chipszektort Kína
- A manapság optimális specifikációkra törekszik az MSI QD-OLED monitorja
- Felpörög az asztali CPU-piac a következő pár hónapban
- Azonnali VGA-s kérdések órája
- OLED TV topic
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- A soknál is több pénzzel gyorsítaná fel a hazai chipszektort Kína
- Szünetmentes tápegységek (UPS)
- HiFi műszaki szemmel - sztereó hangrendszerek
- Milyen billentyűzetet vegyek?
- AMD Ryzen 9 / 7 / 5 7***(X) "Zen 4" (AM5)
- AMD GPU-k jövője - amit tudni vélünk
- Nvidia GPU-k jövője - amit tudni vélünk
Hirdetés
-
Kávézaccból készülnek a Tecno Camon modellek
ma Pontosabban a bőr hatású hátlap, amit kizárólag napenergia felhasználásával, kemikáliák nélkül állítanak elő.
-
Retro Kocka Kuckó 2024
lo Megint eltelt egy esztendő, ezért mögyünk retrokockulni Vásárhelyre! Gyere velünk gyereknapon!
-
A marketingen segít spórolni az AI
it A Klarna is használ már AI-t, ők a marketingköltségeken spórolnak így évi 10 millió dollárt.
Új hozzászólás Aktív témák
-
addikt
'zanyjukat! Amúgy az egy nyákon lévő 2 GPU esetén is csak az egyik GPU-t használja, vagy az működik rendesen?
-
milan18
aktív tag
Milyen játék ez hogy 290x veri gtx 980-at?
-
Departed
őstag
Mindig mosolyra fakaszt milyen szánalmasra butított kártyát adott ki az Nvidia 960 néven.
-
Ed3r_X_
nagyúr
Ez gonosz volt
Nekem a két VGA-s rendszer a 8800/9800GT SLI óta nem dobogtatja a szívem. Egyszer ha lesz egy kis pénzem, összerakok egy olyan retro gépet, a szívem csücske. Meg ha nem skálázódik rendesen, cseszheti az ember a 2 VGA-t.
“Songbird, Songbird, see him fly, drop the children from the sky. When the young ones misbehave, escorts children to their grave. Never back-talk, never lie, or he'll drop you from the sky!”
-
jedis
senior tag
Pedig a 4K őrület miatt nem kicsit van létjogosultsága a több GPU-s konfigoknak ! Ettől függetlenül valahol megértem a játékfejlesztőket is , mivel mostanában minden játék "tegnapra kell ", és a több GPU-s optimalizáció nem biztos hogy belefér a kiadás napjáig ! Mondjuk örülnék neki, ha minden kiadott játéknak mostanában, csak ez az egy baja lenne !!!
Ha az autópályán haladván, egyszer csak vészjósló mennydörgést hallasz magad mögött, és hátratekintvén egy nagy feketeség közelít feléd ezerrel, ne hidd azt hogy egy viharfelhő vett üldözőbe !
-
berVi
senior tag
A tobb GPU-s gepek mar evekkel ezelott elvesztettek a letjogosultsagukat, csak ezt a multi GPU fanok nem hajlandoak tudomasul venni, a GPU gyartok meg kapnak az alkalmon, mert legalabb hamarabb tudjak kisoporni a raktarakat. Win-win, a t. fogyaszto orulhet a rendkivul draga, bar teljesen ertelmetlen termeknek, a gyarto meg orulhet a pluszbevetelnek.
[ Szerkesztve ]
-
Milka 78
nagyúr
Nem gonosz...inkább magas labda
Amúgy baromi szomorú dolog ez.4 különböző cf rendszerem volt,imádtam,rá sem néztem a szimpla kariks rendszerekre,de felettébb idegesítő,hogy a kedvenc játékod nem támogat multi gpu-t,miközben kellene a kraft.Ráadásul egyre rosszabb a helyzet.Amióta szimpla karit hajtok nyugodtabb életem,pedig istenemre mondom,már szúrnám is mellé a mostani párját,ha lenne normális támogatás. -
Duck663
őstag
A gyártók ebben épp úgy hibásak, mert nem az AFR-t kellett volna erőltetni. Korábban volt olló, sakktáblás felosztás, azokat kellett volna fejleszteni, amikor tulajdonképpen a 2 vagy több GPU párhuzamosan dolgozik, és nincs nagy mennyiségű adatmásolás a 2 vagy több egység között. Lehet a skálázódása nem olyan jó, mint az AFR-é, de a 0-nál (mint ami most van) mégis több, jobb.
Ráadásul épp az AMD dobta el az scissort?! Amikor azt még különféle teljesítményű APU+GPU pároshoz is tudták volna használni! Egyszerűen csak nem középen osztották volna el a képet, hanem az APU és a GPU teljesítményének megfelelően arányosan. Vagy a sakktáblánál, fel van osztva a képernyő 64 kis négyzetre, az APU számol x számú négyzetet, míg a GPU 2x számút, amik összege lesz a 64.
Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.
-
Borisz76
veterán
Pont az ilyen "nem támogatás" miatt nem veszek én sem másik 7970-es karit.
Eldöcög ez FHD-n.
S ha majd 2-3 év múlva esetleg veszek egy 4K-s kijelzőt...szóval addigra biztos lesz erősebb VGA is.
Synology NAS DSM6 - Összefoglaló : https://logout.hu/bejegyzes/borisz76/synology_nas_osszefoglalo.html
-
MZperX75
addikt
"Vélemény: elvesztik létjogosultságukat a több GPU-s PC-k?"
Talán egyszer,de egy fecske nem csinál nyarat.....
Az utolsó több GPU-s rendszerem egy 4870CF4850 majd egy 4870 CF volt Majd elmúlt a varázs,ma egy szimpla APU is sok,mivel 2 hónap/1 órára csökkent a játszási időm.
[ Szerkesztve ]
-
MPowerPH
félisten
"A tobb GPU-s gepek mar evekkel ezelott elvesztettek a letjogosultsagukat"
Probaltal valaha gamelni 4k-ban, vagy akar 3 monitoron, 1 kartyaval? Megsugom, elegge nehezkes. A nagyobb cimek egyike sem jatszhato jelenleg a legerosebbnek szamito GTX980-al, de meg egy Assetto Corsa is doglodik 1GPU-val, ha 8-nal tobben vannak a palyan.
Don't Tread On Me
-
assettoban minimalis kompromisszumokkal mondjuk megvan a 60fps egy GTX970el is (nekem megvolt), viszont ahogy nezem az Evolvenek kene a masodik kartya.
az egeszben az a gaz, hogy a cryengine a crysis3 alapjan az egyik legjobban skalazodo motor.
mondjuk ezek miatt a hirek miatt (meg a rift miatt) agyalok azon, hogy ha leokezzak a 970em garijat, akkor lehet egy 980 / 290x lesz FC blokkal tuninggal, aztan visszaterek egy kartyara.
Don't dream it, be it. // Lagom amount.
-
MPowerPH
félisten
Nordon neha siman benezett 35 FPS kore a game, ami tobb mint nem idealis. Alapbol ha egyedul vagyok, akkor nincs gond, de ugye alt. a tobbseg multizik. Ez igaz minden masra is.
Borisz76: En a reszemrol meg nem talakoztam olyan game-val, ami alatt nem ment a tobb gpu. 4k-ban egyet ertek, tobb dolog miatt is gyerekcipoben jar meg, es erzetre ugyan az, mint ha FHD monitort neznel. Ellenben a 3 monitornak megvan a varazsa, amibe ha egyszer belekostolsz, mar eleg gagyin hat az, ha nincs kijelzo a teljes latokorodben.(foleg ha szimulatorozol...)
[ Szerkesztve ]
Don't Tread On Me
-
Borisz76
veterán
Én értem a fanatikusokat mert én is egész nap játszom mióta munkanélküli vagyok
De aki ennyire ért hozzá és tudja hogy drága dolog a több monitor / 4K monitor és sokba kerül 2-3-4 db jó VGA is annak tudnia kell arról is ,hogy egyre kevesebb játék jön ki ami támogatja a többGPU-s rendszert.
Azaz hiába öl bele egy csomó pénzt és elmondhatja hogy : hú meg há ....Játékok alatt ( 1 pár kivétellel ) nem származik belőle előnye !
Jelenlegi felső-csúcs VGA-nak ideális a FHD felbontás...és azért nem olyan csúnya az
Majd 2-3-4 év múlva mire lesz olcsóbb árban 4K-s monitor/tv addigra lesz hozzá olyan VGA is ami képes 1 maggal is kényelmesen a 40-50-60 fps-re.....vagy akár többre is.
Egyébként meg kár ezen lovagolni akinek sok pénze van de sütnivalója kevesebb az úgy is beleöli a pénzt....aztán később meg jön a fórumra panaszkodni , hogy nem megy....
Ennyi.
Én biztosan nem fogok közzéjük tartozniSynology NAS DSM6 - Összefoglaló : https://logout.hu/bejegyzes/borisz76/synology_nas_osszefoglalo.html
-
MPowerPH
félisten
Ettol fuggetlenul en is jonnek vissza 1GPU-ra, remelhetoleg az uj AMD vagy NV vga tartogat majd egy nagyobb novekedest, es talan meg optimalizalni is tudjak majd a fejlesztok azokat a vackokat, amiket most kiadnak. Mert ugye arra is lustak, reszben onhibajukon kivul.
Baltoafarkas: Az osszes NV kartya veszit a lenduletebol magas felbontasokon.
[ Szerkesztve ]
Don't Tread On Me
-
#52815360
törölt tag
Nekem 1 monitor is elég
-
IamMenyus
tag
Szokásos korán kiadott félkész-optimalizálatlan játék, ebből következtetést levonni a többkártyás rendszerre közönséges provokáció
Az sli köszöni jól van, 4k -nak értelmetlen nekifutni nélküle.
-
cacasz02
aktív tag
Asszem nem csak a több kártya támogatásának hiánya miatt bénák a játékok. Pl bf4 bfh. Ugyan az a két játék, más textúrákkal. Na ennek mi értelme? Bf4 is csak a phantom easteregg-től lett érdekes. Remélem folytatják ezt az irányt.
-
Abu85
HÁZIGAZDA
-
bitblueduck
senior tag
pontosan ezt szerettem volna írni. bár nem értek hozzá annyira, hogy megmondjam a tutit de nem hiszem el, hogy csak 1GPU-s meg AFR algoritmusokat lehet írni és rendes terheléselosztó eljárások nem létezhetnének. egy kis R&D igazán mehetne a témára... akár az API tervezők részéről is.
[ Szerkesztve ]
An open mind is like a fortress with its gates unbarred and unguarded.
-
seederking
őstag
Sajnos ez mindíg is így volt és szerintem jó ideig így is lesz. Régebben elgondolkodtam én is egy 7870 Cf-en de beszélgettem egy tulajjal akinek ezzel a duóval volt felvértezve a gépe és a panaszon kívül sok jót nem tudott mondani sajnos. Pedig milyen jó lenn ha pl egy gyengébb kártyával meglehetne támasztani az erős vga-nkat ha épp nincs duplikálva az erre szánt összeg a pénztárcánkban. Nem tudom egyáltalán kivitelezhető-e hogy egy erősebb vga mellé egy gyengébbet rakjunk cf-be Pl egy 7870-et meg egy 7850-et (éssatöbbi.) pariba lehet-e kötni egyáltalán...vagy csak azonos kártyákra van kitalálva a cf.?
[ Szerkesztve ]
-
7time
senior tag
válasz seederking #27 üzenetére
Persze két különböző kártyát is be lehet rakni csak 1 családból legyenek, 6850 nem megy 7870 -el, valamint túl gyenge kártyát sem lehet vagy célszerű használni mert visszafogja a nagyobbat.
-
seederking
őstag
Igen viszont a lapok "többsége" nem rendelkezik 2 ugyan olyan sebességű pci foglalattal sem. Ez is gondot jelent nemde? Akkor pl ha nekem most adott egy r9 280x akkor az r9 családból választhatnék cf-re? Ha jól értem. Nekem pl az a legbosszantóbb,hogy a vga memória nem adódik össze (ez elég jól jönne pedig).
-
farkas1
tag
"az a réteg, amely képes 4K-s kijelzőre költeni"
Szerintem már szinte mindenki tud 4K-ra vagyis UHD-re költeni, mert ma néztem az Ósan újságban, hogy a Samsung 40" UHD HDMI2.0 149 ezer pénz. Ez már bőven a megfizethető kategória.
Viszont vga-k még gyengék hozzá, azon kell fejleszteni nem keveset. A 3,5GB vram biztos kevés. -
arn
félisten
en meg a 4800 korszakban probaltam ki a cfot es az x2ot, annyi eleg is volt... benchmarkolason kivul kb semmire nem valo. hangos, sokat eszik, sokkal nagyobb az esely vmi bugra. azota meg nem fordulna a fejemben meg egy tobbgpus rendszer.
[ Szerkesztve ]
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
#90933760
törölt tag
Túl gyenge kártyát nem tudsz mellétenni, mert csak szérián belül a mellette lévővel működik eleve. Itt meg nincs túl kicsi. 7870, 7850 pl.
7790 mellé nem fogsz tudni rakni 7730-at, ahol a túl kicsi eset előjöhetne.És nV kártyákra ez nem nagyon érvényes, a 680 nem fog együtt menni a 670-nel, azt érdemes tudni hogy náluk csak azonosak mennek. AMDnél is csak a szorosan együtt lévők.
Az R9 280X csak az R9 280-nal megy együtt. (7970+7950 lényegében) Bár hirtelen fejből nem tudom pontosan, az AMD átcímkézési metódusát.
A PCIe nem számít, minimálisan közbeszól de attól még működik. De legyen legalább 16x+8x a felállás. 16x+1x már azért kiüt.A memória nem adódik össze, majd esetleg a jövőben ha az AFR le lesz váltva valami más szétosztó feldolgozásra.
[ Szerkesztve ]
-
7time
senior tag
válasz seederking #29 üzenetére
A 8x PCI-E elenyésző sebességcsökkenést okoz legfeljebb abba rakod a gyengébb VGA-t.
Akkor pl ha nekem most adott egy r9 280x akkor az r9 családból választhatnék cf-re? Ha jól értem.
R7-2xx családból is választhatnál de nem lenne érdemes, viszont R9-2XX nem rakhatsz össze R9-3XX kártyával, igen a memória az nem adódik össze és ez nem is fog változni.
Baltoafarkas
Én úgy tudom hogy bármilyen HD 77XX kártyát lehet párosítani csak nem érdemes, nekem volt HD4770 -HD 4950 CF próbából összerakva és működött csak nem érte meg.
[ Szerkesztve ]
-
Ed3r_X_
nagyúr
Attól függ, világ életünkben 80 alatt vettünk TV-t, mert nem futotta rá. Na most a 150 majdnem a duplája.
“Songbird, Songbird, see him fly, drop the children from the sky. When the young ones misbehave, escorts children to their grave. Never back-talk, never lie, or he'll drop you from the sky!”
-
#90933760
törölt tag
A HD4000 még kicsit másabb volt mint a mai kártyák, ott a 4770 összement a 4850-nel. Ugyanaz a chip volt csak kisebb csíkszélen. Egy 7970 nem fog együtt menni egy 7870-nel. Kivétel persze van, a 7870XT, mert az egy módosított Tahiti chip.
Miért nem érte meg? Nem nagyon vannak messze egymástól a 4770 és 4850, ott valami más gond is volt ha nem skálázódott rendesen.
-
Duck663
őstag
válasz bitblueduck #26 üzenetére
Korábbi Radeonoknál még talán az x1xxx szériánál?! Ebben nem vagyok biztos, de választható opció volt melyiket szeretnéd használni. Ennyi, csak tovább kellett volna fejleszteni, költeni kicsit a kutatásra, nem eldobni, persze akkor még szó sem volt saját API-ról, de a lehetőségeket akkor is nyitva kell hagyni. Nem hiszem el, hogy ne gondolkodtak volna el azon, hogy mi lesz ha a játék jelenetek egyre komplexebbé válnak és megnő a másolandó adatok mennyisége. Az AMD folyamatosan hoz érthetetlen döntéseket. Most is.
A scissor vagy a sakktábla meg remekül működhetne elvileg akárhány GPU-val, is, mert a képet akárhány részre feloszthatod, persze előbb-utóbb biztos lenne valami limitje, de nincs az, hogy GPU-ról-GPU-ra kellene másolgatni adatokat, ha van mondjuk 16 GPU, akkor 16 GPU-t összekötni az adatmásolást kezelni, egyszerűen lehetetlen feladat, de ugyanezt 16 felé felosztott képen nem érzem annak. Vagy hogy nagyobb legyen a terheléselosztás és kisebb eséllyel kapjon 1 GPU gyorsan számolható területet, míg egy másik lassút, egy extrém felosztású sakktábla, ahol mondjuk 1-2000 kis négyzetre van felosztva, és véletlenszerűen kapják a GPU-k a számítandó négyzeteket, így a skálázódás is biztosan javulna valamelyest. Jó a geometriát az összesnek le kell képezni, de ki lehet erre gyúrni egy GPU-t. Kis kreativitás kellene, vagy csak hogy egyszerűen végiggondolják az egészet.
Igen-igen, még mindig Win7-et használok, és ha így haladunk még 2030-ban is így lesz.
-
Dilikutya
félisten
Ez nem kimondottan tömegigény. Gyakorlatilag olyan kicsi réteg lehet, hogy a fejlesztők nem is nekik teszik bele a támogatást, hanem inkább maguknak, meg hogy elmondhassák, hogy ezt is tudja. Ha beleteszik.
Én konkrétan el se tudnék helyezni 3 fHD monitort sem az asztalon még akkor se, ha a gépet leteszem. Bár játékra aligha vennék még két másik monitort, ha egyébként nincs rá szükségem, márpedig itthon nem igazán van. Munka és átlagosnak mondható igények mellett, mint magán- és társadalmi élet úgy sincs napi 1-2 óránál több időm játszani, vagy annyi se, kihasználatlan lenne ennyi monitort, és szerintem ezzel a többség így van. Nem éri meg a bele fektetett pénzt.
Gamelés helyett játszok, az olyan szép szó, és még jelentése is van.
Nem vagyok perverz, csak haladok a korral. (Még mindig: Rock&roll feeling baby, rock&roll feeling.....)
-
djculture
félisten
Az baj az Evolve is olyan hogy nem látom a nagy gépigényhez társitott húde szép grafikát, a szörny oké de a környezet néha hl2 szintű
-
Jack@l
veterán
Köszönjük a heti játék reklámozós cikket, akarom mondani "véleményt".
Nemrég még arról ment az észosztás, hogy majd amd-vel megy hatékonyabban 6-7 gpu is a gépedben és hasonlók, úgy látszik rövid az emlékezet...[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Imre921
tag
Nem 'hálistennek. Elég volt néhány youtube video is hogy jókat mulassak a sok észkombájnon. Na az ilyeneknek elhiszem hogy igénye van arra hogy 2-3 féltéglát pároljon a gépben, ahelyett hogy összerakna egy értelmes gépet ami önmagában legalább addig marad értékálló mint a minipaks.
De lehet csak én vagyok vaskalapos ezzel a felfogással, mert nekem az a f@ssz@r 1080p is megteszi egy értelmes konfigon, 1 darab monitoron, paks nélkül a játékélményhez
Kocsimra se szerelek 8kereket mert tél van. Arra találták ki a téligumit
De ez én vagyok. És azt is meg tudom érteni hogy a mai tökéletlen világunkban igenis van igény a többkártyás rendszerekre. Nem azért mert van értelme, hanem mert attól leszel János a vakmerő
'Hálistennek ahogy látom egyre inkább kezdenek elmozdulni a fejlesztők is most már meg mindenki a teljesítmény/fogyasztás, avagy az innováció azon területei felé ahol a technológia párosul a logikával és a józan ésszel. És ezt nem azért írom mert nekem ingyen se kéne semmilyen sli vagy cf rendszer.
-
Abu85
HÁZIGAZDA
Az SFR vagy scissor kényszerítése ma már nem müködik a rengeteg offscreen trükközés miatt. Persze lehetne használni, de lassítana. A CivBE-re nem érdemes figyelni, mert ott az SFR csak azért működik, mert a Firaxis maga írt egy kiterjesztést a Mantle-be.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
-
Abu85
HÁZIGAZDA
válasz djculture #41 üzenetére
A logó az reklám, ez a CryEngine új verzióinak sajátosságait nem változtatja meg.
Lehet rakni bele extra effekteket, de a CryEngine képességei túlmutatnak az NV effektjein. Egy SSDO-t csak a hülye cserél SSAO implementációra. Maximum berakják mellé a HBAO+-t, de ettől az SSDO jobb marad.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
#16939776
törölt tag
Milyen szomorú hír, pedig a vízhűtéses Matx-es kuckómat eddig arra az esetre tartogattam, ha -valami csoda folytán- megint megérné 2 GPU-val "szenvedni". Pedig már olyan szépen alakultak a használt VGA árak
(#42) Imre921: pedig még 2008-ban FHD-monitor miatt döntöttem CF mellett, aztán jött egy másik pakk VGA, aztán jöttek a gondok..
[ Szerkesztve ]
-
BlackSoft
addikt
Elég egyetlen GPU is. Csak legyen benne kérem szépen GDDR8 16GB vram, 15Ghz-es GPU, 8000 CUDA mag, stb stb stb....
1080p-re nem elég egy GTX 980 se emberek! Hogyan van tervezve ez a dolog? És 4K-nál járunk, 2 év, és 4K általános lesz, mint telefonkijelző, de kell 6db GTX2080 Titan Black Z Lightning, hogy legyen 50fps egy-egy játékban... Nemhogy több GPU-s támogatásra rá kellene gyúrni, ha már optimalizáció nincs, hanem továbbfejleszteni a multiGPU-s működést egy magasabb szinte.
Amúgy meg ez a haldokló SLI/CF téma már 10 éve megy, és még mindig van, és lesz is sokáig. Vagy mi más történne? Kiadnak egy játékot, és a hivatalos max rendszerkövetelményhez azt írják "no way to run at maximum settings"??? És csak 1080p-ről beszélünk, mert az nekem nem normális, hogy némely játékban 30-40fps a max, amit kisajtol egy 200k-s csúcskártya, főleg amit mondtam, hogy az 1080p lassan elkezd csökkeni azok közt, akik 200k-ért tudnak venni kártyát. Senki sem fog ezek közül FHD-val szórakozni pár év múlva, lesz 4K meg majd 8K, és a többi el lesz felejtve... 2006-2007 óta használok FHD-t, azóta elfelejtettem az 1024-et, hát még a 640x480-at... 2017-re emlékezni sem fogok már a 720p-re, csak az 1080p-re, hogy régen bizony olyan volt....
---------> Számítógép szerviz III.Kerület | https://hardverguru.com <---------
-
babkukta
senior tag
sose gondolkodtam multi gpu-s rendszerben. Az 1 karis rendszereket jobban preferálom... azt legalább biztos, h támogatja minden
Egyébként csak a gép szellőzésével meg lehet oldani azt, h a felső vga nem főjön meg??Üdvözlettel, Tibi
Új hozzászólás Aktív témák
Állásajánlatok
Cég: Alpha Laptopszerviz Kft.
Város: Pécs
Cég: Promenade Publishing House Kft.
Város: Budapest