- Nvidia GPU-k jövője - amit tudni vélünk
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- Milyen TV-t vegyek?
- AMD Navi Radeon™ RX 7xxx sorozat
- Fujifilm X
- 3D nyomtatás
- Milyen billentyűzetet vegyek?
- Milyen egeret válasszak?
- Elkészült Oroszország első litográfiai berendezése
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
Hirdetés
-
Kihagyták az NVIDIA-t egy új AI-hálózati szabványból
it Számos big tech cég összefogásával készült el egy új AI-hálózati szabvány, mindebből viszont kihagyták az NVIDIA-t.
-
Retro Kocka Kuckó 2024
lo Megint eltelt egy esztendő, ezért mögyünk retrokockulni Vásárhelyre! Gyere velünk gyereknapon!
-
A hajlíthatók kedvence lehet a Dimensity 7300X 5G
ma Átcímkézés helyett csíkszélességet váltott a MediaTek, népszerű Motorolában debütálhat.
Új hozzászólás Aktív témák
-
Giot
addikt
Hm akkor ez így első neki futásra nem jött össze. Végül is érthető idegen terepen poroszkáltak, hiába a nagy tapasztalat CPU tervezés, gyártás terén ez más világ. Azért az ATi-nak nV-nek sem egy két évnyi tapasztalat van hátuk mögött. Remélem nem fogják ennyiben hagyni Intel-ék, és folytatják a fejlesztéseket.
[ Szerkesztve ]
-
ez így már érthetőbb.
"GPU mérete nagyon közel áll a 700 mm²"
uhh. az nagy. innentől érthető, hogy csak HPCben gondolkodnak (consumer szinten ezt profittal 500-600 usd alatt nem igazán lehetn adni tippre, ott meg nem az 5770OC lenne az ellenfél, hanem az 5970), bár az meg a terméktámogatáson bukhat.elnézve a felépítését nekem inkább egy egy chipen elhelyezkedő többprocesszoros rendszer jut eszembe (ringbus bár azt GPUnál is használják, a memóriák szinkronizációjának komoly problémája és főleg az overhead), mint GPU (de az is lehet, hogy tévedek).
mind1, kutatóknak és fontosabb fejlesztőpartnereknek kiküldeni jó lesz, meg a drivercsapatnak addig is gyakorolni függöny mögött.
azért remélem, hogy a második verziója már jobban sikerül.
Don't dream it, be it. // Lagom amount.
-
gfefe
őstag
Szerintem az intel "Gpu" már befuccsolt...
Miért is írom ezt... Még ha elő is szedik a süjesztett terveket 1x és csinálnak vele valamit...
Az ati és az Nvidia addig sem ül a babérjain... ők is fejlesztenek és a lemaradás az lemaradás....DOWNLOAD ██████████████ 105%
-
Jim Tonic
nagyúr
Tök f@sza, hogy az van benne leírva, amit 2 évvel ezelőtt beborítékoltam, és akkor teljesen hülyének nézett mindenki. Még Abu is azt mondta, hogy a sw renderelés a jövő, mert a DX11 a vége a régi útvonalnak. Lehet, de biztosan nem az Intel megoldása a nyerő.
Mindig nyilvánvaló volt, hogy egy általános eszközzel sosem lehet felvenni a versenyt a célhardverekkel, akkor sem, ha megkönnyí(he)ti a programozók dolgát. Kicsit olyan, mint a kombinált fogó. Sok mindenre jó, és tuti, hogy csak egy szerszám a sok helyett, de mégiscsak nehéz vele vízvezetéket szerelni.
Egyébként a Sony a Cellel ugyanebbe a bilibe nyúlt bele.Amúgy jó látni, hogy az Intel végre nem tudott valamit pénzből átvinni. Mondjuk a telefonokban sem lesznek Atomok, bármennyire is akarta.
4: süjesztett? Azt a leborult szivarvégit... Te meg hol voltál iskola helyett? Ha már magyar vagy, nem turista, megtanulhatnád a nyelved...
[ Szerkesztve ]
Alcohol & calculus don't mix. Never drink & derive.
-
tzsolesz
nagyúr
Hát nem értek minden részletet, de azért laikusként is kapisgálom a bukás okát.
Egyébként az Intel, és az NV úgy látom még a jövőben számol a szoftveres megvalósítással, de mi újság az AMD-vel? Ő kiesik a versenyből 2012 környékén? Vagy a Microsofttal karöltve el vacillálnak még a DX16-ig?
(#5) Jim Tonic: Így van, süllyed lesz az. Egyébként nekem mindig aláhúzza a Firefox a helytelenül írt szavakat.
[ Szerkesztve ]
-
Lenry
félisten
bár nem vagyok szakértő, de nekem nagyon az jött le, hogy az x86 baromira nem alkalmas GPU-nak, mert sok fontos "GPU-s" dolgot nem, vagy csak nagyon bonyolultan lehet benne megvalósítani, ennek fényében pedig az egész Larrabee-s ötlet úgy hamubasült fasság, ahogy van...
Gvella Glan! | There are two types of people: Those who can extrapolate from incomplete data
-
hugo chávez
aktív tag
Kösz Abu, hogy leírtad az Andrew Richards féle elemzés lényegét, így azért számomra sokkal érthetőbb, mint az angol nyelvű.
Azért az 1 GHz körüli órajelű, közel 700 mm²-es chip TDP-je is érdekes lehet.Amúgy arról lehet tudni valamit, hogy ray-tracing-ben a 32 magos Larrabee, vagy a Fermi lenne az erősebb?
"sajnos ez a beszélgetés olyan alacsony szintre jutott, hogy a továbbiakban már nem méltó hozzám" - by Pikari
-
acsa77
tag
Az Intel ugye megengedheti magának, hogy pár évente becsődöljön egy hatalmas üzlete. Azt hittem, hogy a P4-ből tanultak kicsit. De nem eléggé. Ha valaki elolvasta az anandtechen az interjút a mostani ATI GPU családról, akkor láthatja, hogy jó pár évvel ezelőtt elég pontosan kitalálták azt, hogy mi lesz ma. Az Nvidia pedig ráadásul igen látványosan csinálta a CUDA-val. Tehát mivel biztos nem volt vak és tudatlan az Intel, durván a széllel szemben pisiltek egy lebutított P3 architektúra ilyen furcsa felélesztésével. Úgy, hogy még csak meg sem kérdezik rendesen a leendő felhasználókat.
Naivan még az Atomot is be akarták nyomni az iPadbe...
-
Móci
addikt
Hát, ez nem jött be,. Mindenhova azért nem lehet benyomni az x86-t, kedves intel...
"...In a struggle to be happy and free, swimming in a primitive sea..."
-
Mr.Csizmás
félisten
ez egy jó cikk, holnap átolvasom mégegyszer végre tudom, hogy mi is akart lenne az intel GPU-ja
"Szólítson csak Cirminek." | B&B XI | 3D nyomtatás Bp és környéke |
-
eXodus
őstag
Neked és másoknak:
Larrabee igen is életképes koncepciónak tűnt régen. (és lehet h a jövőben még az is lesz)
Csak egy kis hiba csúszott az elképzelésbe. Az a mocsok AMD
Párszor már előfordult ilyen a történelemben (itanium, p4, fermi), és még biztosan lesz is is ilyen a jövőben.Gyakorlatilag most is ugyan azt játssza el az AMD mint 64bit "váltásnál". Van egy teljes értékű, kompromisszummentes x86 processzora, kiegészítve opcionálisan egy rendkívül gyors, de speciális egységgel. SW környezet is szépen fejlődik, ami kihasználja.
-
Jester01
veterán
memória olvasására (scatter) és írására (gather)
Ez nem fordítva vagyon
Jester
-
dezz
nagyúr
"Egyébként a Sony a Cellel ugyanebbe a bilibe nyúlt bele."
Nem igazán a Sony (ők főképpen a pénzt adták), hanem inkább az IBM (a fejlesztés nagy részét ők csinálták). És egyébként nem... Nem tudom, tudsz-e róla, hogy több szuperszámítógép Cell alapú (illetve annak fullos DP FP támogatású PowerXCell 8i nevezetű változatát tartalmazza). A legismertebb köztük a Roadrunner, amit több év után tudtak csak letaszítani az 1. helyről...
Igen, a Cellt nehezebb programozni, mint egy átlag procit, azonban adott fogyasztás és méret mellett többszörös teljesítmény nyújt.
A nehezebb programozás mellesleg inkább csak a laikusok szemében probléma, mivel az SPE-k (vektormagok) belső RAM-ja (ami sokkal kisebb helyet foglal, mint ha cache memória lenne, azaz cache-ből nem 256KB lehetett volna SPE-nként, csak 64, vagy épp 32) és a sokat szídott blockos main RAM elérés éppen a hatalmas sávszél igényt hivatott kiküszöbölni, ami akkor jelentkezik, ha fogjuk magunkat, és egyszerű, a main ramban dolgozó kódokat kezdünk futtatni egy sokmagos procin...
...mint pl. a Larrabee, amikor is egy jó kis dugó alakul ki, a teljesítmény meg a béka feneke alá süllyed, mert a magok csak várnak és várnak. Így aztán itt is neki lehet állni az optimalizálásnak, pl. annak érdekében, hogy minnél ritkábban nyúljanak a main ramhoz a magok, stb. Csakhogy, a Larrabee és más többmagos procik koncepciójából eleve hiányzik az erre való felkészülés.
Pl. a Cell SPE-i azt a bizonyos blockos RAM-elérést DMA-val csinálják, amikor is az adatmozgatás automatikus, miközben a mag számolhat tovább, double-bufferes technikával. Van még pár egyéb trükkje is a Cellnek, most nem fogom mindet felsorolni. Lényeg, hogy rákényszeríti a programozót az optimális kódokásra, viszont azt hw-esen támogatja.
Szóval, a Larrabee amatőr programozóknak való -- a nagy semmire...
Igen, a 32nm-es, 32 SPE-t tartalmazó Cell változat fejlesztése is leállt. Csakhogy nem azért, mert rossz lenne az egész koncepció, viszont időközben rájöttek, hogy egy PPE kevés 32 SPE-re, és több PPE sem lenne optimális, így most egy olyat kezdtek el fejleszteni (valószínű a 22nm-t megcélozva), amiben a butácska PPE-t egy fullos POWER mag váltja fel. (És az SPE-k RAM-ja is nagyobb lesz.)
eXodus: Az Itanium önmagában is bukás lett volna, mint ahogy a P4 is zsákutcának bizonyult... Az AMD-t nem hibáztatni kell mindezért, hanem dícsérni, hogy időben elő tudtak állni más megoldásokkal, nem akadt meg a fejlődés...
[ Szerkesztve ]
-
Jim Tonic
nagyúr
Én jól írtam. Nem a Cell-lel volt baj. A Sony nyúlt bele ebbe, amikor ezt választotta a PS3-hoz. Volt Kraft, csak az XBOX360 egy egyszerű power procival és egy Ati Xenos (R500) GPU-val gyakorlatilag ugyanazt hozza ebben a szegmensben, csak egyszerűbben, olcsóbban. Jó, tudom, hogy abban is van még egy Nvidia GPU mégiscsak arról van szó, hogy a hihetetlen számítási képességgel akartak lenyomni mindent, a gyakorlatban ez teljesen kiaknázatlan maradt. A PS4 már nem is tartalmaz majd Cellt, ha jól tudom.
[ Szerkesztve ]
Alcohol & calculus don't mix. Never drink & derive.
-
dezz
nagyúr
válasz Jim Tonic #17 üzenetére
Annó a PS2-t is szídták a vektormagjai miatt (állítólag nehezebb is volt programozni, mint a Cellt), aztán belejöttek... A PS3-mal is hasonló a helyzet.
Az Xbox360-ban sem egy egyszerű Power(PC) proci van, hanem egy némileg butított (in-order végrehajtás), ugyanakkor kétszálas végrehajtásra optimalizált magokból 3, amik akkor teljesítenek megfelelően, ha 6 párhuzamos szálat hajthatnak végre, és még abból is tömény SIMD kódot. (Egyébként ezek a magok nagyon hasonlítanak a Cell PPE-jére (főprocimag).)
Ehhez képest az átlag game-kód, főleg ami a multiplatformokat illeti, mint PC-n is tapasztalhatjuk, többnyire egy, jobb esetben kétszálasak... Így ezek általában még az Xbox360 képességeit sem használják ki teljesen. Bár ez lassan változóban van.
Így a multiplatformok szereplése, illetve kinézete a GPU-kon dől el, amiből az Xbox360-ban összességében egy kicsivel jobb van. Ugyanakkor, egyes dolgokban az RSX a jobb (pl. fillrate-ek), és Celles segítséggel a másik fölé kerededhet, mint ahogy egyes exklúzív játékokban láthatjuk.
Ja, voltak hírek, hogy a PS4-ben már nem Cell lesz (hanem pl. Larrabee ), de szerintem ezek csak találgatások. Egy ütősebb Cell a legesélyesebb (elég akár egy újabb, 32nm-est 2x órajelen járatni, ezt már akár a 45nm-essel is megtehetnék), így a fejlesztőrendszerek továbbra is használhatók lennének, csak kapásból nagyobb prociteljesítmény állna rendelkezésre. És a visszafelé kompatibilitás is adott lenne.
[ Szerkesztve ]
-
Hm, hát ha most nem jött össze, majd összejön máskor.
A GPU-k közé kifejezetten kívánatos lenne az Intel, hogy felrázza a piacot. Minél több a szereplő, annál jobb a műsor, és olcsóbbak a hardverek.Mutogatni való hater díszpinty
-
dezz
nagyúr
Nem a szerencsén múlott... Maga a koncepció volt a rossz. Hogy ezt lehetett-e előre látni, vagy nem, arról lehetne vitatkozni. De a lényeg, hogy "legközelebb" mivel állnának elő? Mi van a tarsolyukban, ami versenyképes a GF-ekkel és Radeonokkal? Szerintem semmi. Szerinted?
Amúgy szerintem nem igazán az Intel lenne oda kívánatos, mivel ők inkább a többiek erőből lenyomására játszanának, mint igazán versenyképes termékek piacra dobására. (Végülis a Larrabee-vel is ilyesmi volt a szándékuk, csak még ehhez is gyenge volt.) Lásd pl. az Intel részededése a belépő szinten. Egy negyedik, nem túl nagy anyagi háttérrel, de nagy tudással rendelkező, új vagy eddig marginális piaci szereplő belésése vagy feltörése lenne inkább kívánatos. Mint pl. az Imagination Technologies. [link]
-
-
zoltanz
nagyúr
Lehet még Atom telefonokban, de állítólag a gyártók kivárnak. 1-2 év múlva jöhetnek olyan procik amik ürásjárási fogyasztása tényleg versenyképes az ARM megoldásokkal.
Manapság egy előnye van ha nem vagy szegény, színvonalasabb ellenségeid lehetnek
-
Angel1981
veterán
Követtem a projectet, de a 700mm^2-es GPU új info volt.
Nem csoda, hogy törölték - még a kisebb csíkszélesség sem orvosolta volna igazán. -
cwn
tag
az nvidia fermi 10 darab intel i7 processzor sebesseget hozza ugy altalaban, pl raytracing alatt
erre az intel egyszeruen nem kepes valaszt adni jelenleg2 fajta architectura versenyez egymassal, a larrabbee ,meg az ibm cell azt a vonalat kepviseli amiben altalanos processzormagok kapnak helyet, mindegyik sajat thread kezelovel
a fermi pedig a egyseges, kozpontositott thread kezelo és a kulon elhelyezkedo vegrehajtoegysegekben latja a jovotes ez utobbi bar nem annyira hatekony altalanos dolgokra, de jobban skalazhato , mivel a csikszelesseg csokkentesekor, a thread kezelot kisebb mertekben kell novelni , es igy a vegrehajto block / thread block arany egyre jobban novexik
es emiatt a sok kis komplett processzormagos felepitesnek eselye sincs , se most , se a jovoben
az egyetlen ut amivel uberelni lehetne a fermit a szendvics processzor lenne, ami 3 retegbol allna , ugymint 1.vegrehajto reteg, 2.thread reteg,3 beegyazott cache
es koztuk a kommunikacio feny ,vagy indukcios alapon tortenne, mert igy az egyseges felepites miatt a waferek kihozatali aranya messze jobb lenne
nade az intel nem all sajna ilyen szinten meg, majd egyszer talan -
leviske
veterán
Nah, Abu ! Várnék egy kis előrejelzést/esélylatolgatást, most, hogy így az egyik gyártó felett beborult az ég.
A Larrabee letérdelése mennyire fogja befolyásolni az NVIDIA HPC és mobil front felé irányuló fejlesztéseit? Még jobban ráfekszenek, vagy elkezdenek újra a desktop GPU piacra is koncentrálni? (Jó, tudom, hogy az APU-k miatt sok értelme nem volna, de az Intelnek köszönhetően nyertek nem kevés időt.) Mennyivel jönne ki olcsóbban a játékból az Intel, ha nem a Larrabee-vel próbálna beszállni, hanem benyelné az NVIDIA-t a tapasztalataival együtt? (Csak mert gondolom a Larrabee fejlesztési buktái sem ingyenesek és az NV legalább termel is vissza valamennyi pénzt.)
És az AMD -míg a két ellenfél szenved- mennyi eséllyel tudja a saját szájízére formálni a játékpiacot? Egyáltalán van-e erre esélye, vagy már véglegesen eldőlt, hogy egy Larrabeeféle megoldással kell előállni a jövőben? Vagy nem is annyira a Larrabee, mint inkább az APU-ké a jövő?
De aztán nekem válaszoljál, mert más esetben többet akkor nem szólok hozzád! (Tudom, ritkán szoktam ilyen kegyetlen és embertelen dolgokkal fenyegetőzni. )
-
eXodus
őstag
Viszont 5870 dx11 alatt akár 1000x is gyorsabb lehet mint az i7...
Fermi rt alatt egy kocsit bír csak mozdítani alacsony fpssel és ennyi.dezz
Nem hibáztatom én.
A p4 ahhoz képest h már régen felismerték nem csak az órajel számít, elég sokáig fennmaradt. (Sőt még 2magost is csináltak belőle...)
Itanium is elég sokáig szenvedett. AMD nélkül szerintem simán lenyomták volna az ember torkán... Szerencsére ezt már nem tudjuk meg. -
veterán
Lássuk be,hogy az Intel próbálkozásai nem hoznak sikert ebben a szegmensben.
Már vagy 10 éve próbálkoztak egy önálló grafikus chippel ez volt a 740 de nemigazán tudták felvenni a versenyt a konkurenciával.
Ami nem megy nem eröltetjökduree54
-
cwn
tag
nem fake, hanem opencl teszt, az utolso csikot en rajzoltam bele, mert meg nincs 2 chipes nvidia vga, de a tobbi real
elismerem hogy a fermi nem teljesit olyan jol jatekok alatt mint az ati megoldasai, de GPGPU alatt hulye az aki megkerdojelezi az nvidia felsobbrenduseget, Abu szavaival elve"ez nem jatek gpu"
-
eXodus
őstag
gyk: a lényeg a kép jobb oldalán.
[ Szerkesztve ]
-
cwn
tag
valami oka csak van hogy az ibm szerverekben fermi van, es nem ati gpu, pedig olcsobb lenne
ibm-nel biztos hulyek dolgoznak...na meg az anandtech is tesztelte, az nvidia architectura 2-szer gyorsabb raytracingben is..
ez van, bele kell torodni[ Szerkesztve ]
-
cwn
tag
"This benchmark offers a distinct advantage to NVIDIA GPUs, with the GTX cards not only beating their AMD counterparts, but the GTX 285 also beating the Radeon 5870"
altalanos algoritmusnal mint az n kiralyno teszt, lazan 4-szer gyorsabb a gtx480 az atinal
szal ezt hivjak alazasnak azt hiszem, de a gtx285 is uti a 5870 radeontaz egyik jatekra valo a masik meg nem ennyi a trukkje
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Semmi bajom nincs az állításoddal, sőt egyetértek vele, de az extra csíkok rajzolgatását nem szeretem, mert az alapvetően nem alapoz konkrét eredményre. Ezért tekintem fake-nek, az utolsó "mérést".
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
cwn
tag
speciel 17 kirtanynovel teszteltek, legalabb az anandot olvasd el ha mar kotozkodni akarsz
megy az parhuzamosan is,gondolom az osszes variaciot egyszerre futtatjak aztan kiszorjak ami nem jo
a parhuzamos programozasnal az egyetemi elavult algoritmusok nem hasznalhatok
ezert is bukott meg a larrabee meg a cell, mert olyan megoldas a nyero ami a hulyeknek is megy -
orbano
félisten
-
orbano
félisten
"a parhuzamos programozasnal az egyetemi elavult algoritmusok nem hasznalhatok
ezert is bukott meg a larrabee meg a cell, mert olyan megoldas a nyero ami a hulyeknek is megy"egyetemi elavult algoritmusok? muhaha milyen egyetemre jártál Te egyöcsém? én amondó vagyok, hogy aki nemt ud megtervezni és helyességbizonyítani egy párhuzamos programot, az ne is írjon ilyet, inkább menjen virágkötőnek.
A vér nem válik VAZZE!™
-
cwn
tag
valami olyasmit olvastam hogy Carmack is panaszkodott a paralell programozas nehezsege miatt , pedig neki csak 3-8 magra kellett a rage engine-t megirni
nem olyan konnyu az mint hiszed"Writing parallel code is VERY hard and much more time consuming" by Carmack
[ Szerkesztve ]
-
killerjohn
addikt
egyetértek... ha olyan könnyű lenne, akkor már rég minden párhuzamosítva lenne. Ne vessük már össze a dedós Xkirálynő algoritmust egy valós életbeli algoritmussal, ahol lehet hogy tucatszámra állnak a változók, melyeket csak lockolással lehet párhuzamosan kezelni, az meg a mai processzorokkal borzalmasan lassú...
példának itt van a .NET 4.0, ahol bevezették például a "parallel for utasítást", ami egy ciklus belsejét több magon futtatja. Na kösz: a külső változókat továbbra is zárolva kell kezeleni, továbbá tapasztalatból mondom, hogy teljesen agyament az ütemezője, mert van hogy ugyanazon gépen ugyanazon ciklust (MINDEN ugyanaz...) 4 magnak osztja ki miközben totál le van fogva a gép mással, és olyan is van, hogy nem csinál a gép semmit, és mégis max 2 magra osztja szét (a másik kettő meg malmozik...). És ez a Microsoft, nem a dunaújváros alsó programozó egylet...
-
orbano
félisten
válasz killerjohn #46 üzenetére
én nem mondtam, hogy könnyű. én arra a kijelentésre replikáztam, hogy nincsenek a programozók kezében PP eszközök. tisztában vagyok vele hogy egy párhuzamos program komplexitása kb. egy normálishoz képest exponenciálisan nő. nem is csoda hogy a sok önjelölt párhuzamos program író meghal egy 50 soros programtól is, mert fingjuk sincs a pp. módszertanról.
A vér nem válik VAZZE!™
-
dezz
nagyúr
"Hogy most mi van a tarsolyukban, azt tudjuk.
Ha elkezdenek fejleszteni, az lesz az érdekes."Elkezdenek? Már mióta próbálnak ők GPU-t tervezni (meg hozzá normális drivert), de nem nagyon sikerül. Éppen ezért kezdték el ezt a Larrabee-s vonalat, de ez is bukás, jelen formájában. (Más hasonló formában sem GPU lesz belőle, ugye.) Pedig anyagi erőforrásokban nincs ott hiány. A megfelelő tudásnak viszont nincsenek birtokában. Ha 5-10 év alatt nem sikerült ezen változtatni, mitől változna a jövőhéten? Van egy sanda gyanúm, hogy ez nem úgy megy, hogy az egyik manager kiadja, hogy na jó, akkor csináljunk egy Fermi/Evergreen verő GPU-t, és akkor a mérnök urak leülnek, és terveznek egyet.
-
-
Geri Bátyó
őstag
Nekem mindig is az volt az érzésem a Larrabee-vel kapcsolatban, hogy csak egyfajta tesztnek szánja az Intel és hosszabb távon azt akarta (vagy akarta volna)elérni, hogy egy jövőbeli sokmagos x86 proci - akár terheléstől függően - elossza a magok között a GPU és a CPU feladatokat.
"Ki a büdös istennyila vagy te bohócképű!?" SzŐr Geri, birodalmi poéta és főszakács (:L topic)
Új hozzászólás Aktív témák
- Szilárdtest-akkumulátorokat fejleszt Kína, jöhet az áttörés?
- Politika
- Revolut
- Villanyszerelés
- Szombathely és környéke adok-veszek-beszélgetek
- Jövedelem
- Nvidia GPU-k jövője - amit tudni vélünk
- Crypto Trade
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- [SoP] God of War Ragnarök - Szeptemberben jön a PC-s kiadás
- További aktív témák...
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: Alpha Laptopszerviz Kft.
Város: Pécs