- This topic has 152 hozzászólás, 12 résztvevő, and was last updated 16 years, 6 months telt el by
T_chris.
-
SzerzőBejegyzés
-
2008-10-19-17:59 #2174873Tuschke wrote:vizsla wrote:Hájtek vdeokártya egyébként is csak a játékokhoz kell.
Vagy kódtöréshez, vagy olyan dologhoz, amihez nagyon sokat kell számolni 🙂
Egy újabb nvédja hihetetlen mértékben oda tud verni a processzornak.Mindig tanul az ember… vagy az újszülöttnek minden új?
Direkt megkerestem neked, hogy nem csalok, nem ámítok…De ettől függetlenül igazat adok kisbetunek.
A felhasználók 99,9999 %-a, vagy több, nem használja ilyen számításokra a gpu-t.
Régen érdemes volt, mert akkor a cpu-k jóval lassabbak voltak (3d-t nem is tudott – élvezhető sebességen -, csak egy gpu), most viszont a cpu és képes rá.
Ráadásul bármikor veszek olyan lapot, amibe 4-8 cpu-t is bele lehet erőltetni*, de olyat nem nagyon, amibe 3-nál több video-kártyát és az is instabilan fog működni.* Ma már ez tucatcikk, régebben csak a nagy cégek engedhették ezt meg maguknak.
2008-10-19-17:59 #2174874Tuschke wrote:vizsla wrote:Hájtek vdeokártya egyébként is csak a játékokhoz kell.Vagy kódtöréshez, vagy olyan dologhoz, amihez nagyon sokat kell számolni 🙂
Egy újabb nvédja hihetetlen mértékben oda tud verni a processzornak.Mindig tanul az ember… vagy az újszülöttnek minden új?
Direkt megkerestem neked, hogy nem csalok, nem ámítok…De ettől függetlenül igazat adok kisbetunek.
A felhasználók 99,9999 %-a, vagy több, nem használja ilyen számításokra a gpu-t.
Régen érdemes volt, mert akkor a cpu-k jóval lassabbak voltak (3d-t nem is tudott – élvezhető sebességen -, csak egy gpu), most viszont a cpu és képes rá.
Ráadásul bármikor veszek olyan lapot, amibe 4-8 cpu-t is bele lehet erőltetni*, de olyat nem nagyon, amibe 3-nál több video-kártyát és az is instabilan fog működni.* Ma már ez tucatcikk, régebben csak a nagy cégek engedhették ezt meg maguknak.
2008-10-19-18:11 #2174875Igazából a legelső (Hájtek vdeokártya egyébként is csak a játékokhoz kell.) mondatban levő „csak” szócskán akadtam fenn.
De. Nem három-négy, hanem huszonöt-harminc CPU kellene ahhoz, hogy egy GPU-t utolérjen.
Nyilván spec számítási feladatokra, ami lehet éppen videókódolás is, ez jellemzően időigényes művelet.
Nemcsak a CPU-k lettek jelentősen gyorsabbak, de a videokártyák is.
Az biztosan igaz, hogy nagyon kevesen számolnak GPU-val, (egyelőre, talán eljön az az idő, mikor ezt a kernel alapból tudni fogja), de ezt nem is tagadta senki.2008-10-19-18:11 #2174876Igazából a legelső (Hájtek vdeokártya egyébként is csak a játékokhoz kell.) mondatban levő „csak” szócskán akadtam fenn.
De. Nem három-négy, hanem huszonöt-harminc CPU kellene ahhoz, hogy egy GPU-t utolérjen.
Nyilván spec számítási feladatokra, ami lehet éppen videókódolás is, ez jellemzően időigényes művelet.
Nemcsak a CPU-k lettek jelentősen gyorsabbak, de a videokártyák is.
Az biztosan igaz, hogy nagyon kevesen számolnak GPU-val, (egyelőre, talán eljön az az idő, mikor ezt a kernel alapból tudni fogja), de ezt nem is tagadta senki.2008-10-19-18:54 #2174877Tuschke wrote:mondatban levő „csak” szócskán akadtam fenn.Na, ezen azért gondolkozz el!
Attól, hogy hallottál valamit, hogy egyetemisták játszadoznak valamivel, attól még az nem biztos, hogy használható sőt használandó más feladatokra, sőt bárkinek, bárhol… hanem lehet, hogy messze van attól.
(Annak a tudatában mondom ezt, hogy ezt a lehetőséget hamarabb ismertem, meg mint az a cikk megjelent… sőt minden bizonnyal hamarabb, mint, ahogy azok a belga egyetemisták elkezdtek vele játszani.)
Egyébként nagy különbség van aközött, hogy e fórum felhasználóinak milyen hw-kell és mihez, meg aközött, hogy belga, vagy pár éve pl. magyar egyetemisták milyen hw-el szórakoztak és mihez használták fel.
(Egyébként külön érdekesnek tartom, hogy egy nemzetközi konferencián magyarok csinálnak valamit és évekkel később belgák megszarják a „spanyolviaszt” és akkór hú, milyen szerszáma, meg milyen ügyesekkel van tele a világ… még Magyarország is… áh, nem is mondok semmit!)
Tuschke wrote:De. Nem három-négy, hanem huszonöt-harminc CPU kellene ahhoz, hogy egy GPU-t utolérjen.Hát én meg ebben sem vagyok olyan biztos.
Akkor ezeknek az egyetemisták 8 gpu-os játéka felérne egy 240 cpu-os géppel? Miért nem azt használja az ibm, meg akármi? Miért nincsenek ezek a gépek a hivatalos ranglistán? (Pedig az egyetemek gépei ott vannak és 80 maggal (nem cpu-val!), már fel lehet kerülni.)
(Amúgy lehet, hogy érték/ár aránya rosszabb, mint a gpu-nak, de nem mindenki ér rá szórakozni, mint az egyetemisták. ;))
2008-10-19-18:54 #2174878Tuschke wrote:mondatban levő „csak” szócskán akadtam fenn.Na, ezen azért gondolkozz el!
Attól, hogy hallottál valamit, hogy egyetemisták játszadoznak valamivel, attól még az nem biztos, hogy használható sőt használandó más feladatokra, sőt bárkinek, bárhol… hanem lehet, hogy messze van attól.
(Annak a tudatában mondom ezt, hogy ezt a lehetőséget hamarabb ismertem, meg mint az a cikk megjelent… sőt minden bizonnyal hamarabb, mint, ahogy azok a belga egyetemisták elkezdtek vele játszani.)
Egyébként nagy különbség van aközött, hogy e fórum felhasználóinak milyen hw-kell és mihez, meg aközött, hogy belga, vagy pár éve pl. magyar egyetemisták milyen hw-el szórakoztak és mihez használták fel.
(Egyébként külön érdekesnek tartom, hogy egy nemzetközi konferencián magyarok csinálnak valamit és évekkel később belgák megszarják a „spanyolviaszt” és akkór hú, milyen szerszáma, meg milyen ügyesekkel van tele a világ… még Magyarország is… áh, nem is mondok semmit!)
Tuschke wrote:De. Nem három-négy, hanem huszonöt-harminc CPU kellene ahhoz, hogy egy GPU-t utolérjen.Hát én meg ebben sem vagyok olyan biztos.
Akkor ezeknek az egyetemisták 8 gpu-os játéka felérne egy 240 cpu-os géppel? Miért nem azt használja az ibm, meg akármi? Miért nincsenek ezek a gépek a hivatalos ranglistán? (Pedig az egyetemek gépei ott vannak és 80 maggal (nem cpu-val!), már fel lehet kerülni.)
(Amúgy lehet, hogy érték/ár aránya rosszabb, mint a gpu-nak, de nem mindenki ér rá szórakozni, mint az egyetemisták. ;))
2008-10-19-20:46 #2174879Pedig nagyságrendileg akörül, sőt, nem 240, hanem 300 cpu-val ér fel.
Egészen pontosan „számítási teljesítményében 300 Intel Core 2 Duo 2.4 Ghz gépnek felel meg, jóval kisebb energia fogyasztással mint egy hagyományos cluster.”
De nem is ez volna a lényeg.„Az NVIDIA a grafikus processzorainak CUDA névre keresztelt fejlesztői környezetét 2007 februárjában tette elérhetővé, amelynek segítségével közvetlen módon férhet a programozó a gyártó GPU-ihoz.”
Ez talán már nem csak az egyetemisták játszadozása. De még ha az is volna, jópár dolog kezdődött így.
2008-10-19-20:46 #2174880Pedig nagyságrendileg akörül, sőt, nem 240, hanem 300 cpu-val ér fel.
Egészen pontosan „számítási teljesítményében 300 Intel Core 2 Duo 2.4 Ghz gépnek felel meg, jóval kisebb energia fogyasztással mint egy hagyományos cluster.”
De nem is ez volna a lényeg.„Az NVIDIA a grafikus processzorainak CUDA névre keresztelt fejlesztői környezetét 2007 februárjában tette elérhetővé, amelynek segítségével közvetlen módon férhet a programozó a gyártó GPU-ihoz.”
Ez talán már nem csak az egyetemisták játszadozása. De még ha az is volna, jópár dolog kezdődött így.
2008-10-19-22:49 #2174881Na, akkó még1x
A kiindulási állapot:
– kell lehet vele szórakozni
– vadkan belga egyetemistákEgyébként:
– már akkor ismert volt az a játék, amikor ezek a belgák még pelenkások voltak
– már akkor felvetettem a témát, amikor nem jártál ide
– flop reális teljesítmény (bár érdekes, hogy még a flop-okat mérő listán sincs rajta, pedig a leírásod alapján ott kéne lennie)
– programozható GPU CPU gyakorlati haszna (egy csomó mindent nem tud, amit egy cpu igen)
[tudok rajta (bármelyik kártyán) böngészőt, webszervert, gcc futtatni minden játszadozás nélkül… stb. stb. amíg ezeket (mind) nem, addig játék marad]
– egyetemistáknak van ideje játszani, másnak meg nincs (ezért játék marad)
– most ne szarjunk spanyolviasztMásrészt:
Olyan dolognak a használhatóságát véded, hogy ismernéd a buktatóit, vagy kipróbáltad volna.Tuschke wrote:Pedig nagyságrendileg akörül, sőt, nem 240, hanem 300 cpu-val ér fel.
Egészen pontosan „számítási teljesítményében 300 Intel Core 2 Duo 2.4 Ghz gépnek felel meg, jóval kisebb energia fogyasztással mint egy hagyományos cluster.”
De nem is ez volna a lényeg.Ezzel elmehetnél politikusnak. Ők is így idéznek. :)))) (Mi felel meg? Mitől fogyaszt kevesebbet? Honnan idézted?)
Konkrétan kinéztem az nvidia oldaláról, hogy az ott leggagyibb kártya 8800 gts 105 W-ot, van ami 200 w körülit is.
Ezzel szemben
a legjobb c2d (e8600-as) 75 w,
a c2q q9650 95w,
a q9100 45 w
Amúgy egy qx9775, ill. egy 8800-as között a wikipedia szerint 10x-es a különbség a lebegőpontos számítás terén… de tudjuk, hogy a video kártya erre van kitalálva.
A fent említett cpu, úgy kb. a felét tudja…. akkor 20x-os hozzá képest.Tuschke wrote:„Az NVIDIA a grafikus processzorainak CUDA névre keresztelt fejlesztői környezetét 2007 februárjában tette elérhetővé, amelynek segítségével közvetlen módon férhet a programozó a gyártó GPU-ihoz.”És, ha elolvastad volna, amit linkeltél, akkor rájönnél, hogy ez pont nem arról szól, hogy a cpu feladatait ellássa, hanem arról van szó, hogy egyes matematikai problémákat old meg, mégpedig oly módon, hogy szabályos „gpu feladatokként” fogalmazzák meg.
Ja, ezt csinálják pl. a játékok. Kódokat sem fog neked feltörni, mert a pusztán brute force megoldás azonnal megbukik, ha nincs közvetlen hozzáférés.Tuschke wrote:Ez talán már nem csak az egyetemisták játszadozása. De még ha az is volna, jópár dolog kezdődött így.Pont ez az, hogy nem most kezdődött, hanem vagy 5-8 éve legalább. És azóta sincs semmi több gyakorlati haszna, mint, amire kitalálták (gyors lebegőpontos számítások – igen leegyszerűsítve). Az más kérdés, hogy problémákat fogalmaznak meg rá (mégpedig olyanokat, amik nem lesznek megjelenítve grafikailag). És ez eddig is így volt, csak eddig jórészt asm-ben kellett programozni, most meg c-ben. (És nem ez a pár játszadozó belga egyetemista találta ki.)
Nyílván a programok szaporodnak, de a cpu-ra írt programok is. Viszont az, hogy vannak nem jelenti azt, hogy pl. vadkannak használnia kellene és azt sem, hogy tudná mire használni.
Az meg marketing hülyeség, hogy a cpu feladat-köreire (maradéktalanul) alkalmas, mert nem az és nem is lesz az soha… hisz, akkor cpu-nak hívnák és ez a hatalmas flop számítási előny, amivel bírnak azonnal elveszne, mert másképp kéne működnie.2008-10-19-22:49 #2174882Na, akkó még1x
A kiindulási állapot:
– kell lehet vele szórakozni
– vadkan belga egyetemistákEgyébként:
– már akkor ismert volt az a játék, amikor ezek a belgák még pelenkások voltak
– már akkor felvetettem a témát, amikor nem jártál ide
– flop reális teljesítmény (bár érdekes, hogy még a flop-okat mérő listán sincs rajta, pedig a leírásod alapján ott kéne lennie)
– programozható GPU CPU gyakorlati haszna (egy csomó mindent nem tud, amit egy cpu igen)
[tudok rajta (bármelyik kártyán) böngészőt, webszervert, gcc futtatni minden játszadozás nélkül… stb. stb. amíg ezeket (mind) nem, addig játék marad]
– egyetemistáknak van ideje játszani, másnak meg nincs (ezért játék marad)
– most ne szarjunk spanyolviasztMásrészt:
Olyan dolognak a használhatóságát véded, hogy ismernéd a buktatóit, vagy kipróbáltad volna.Tuschke wrote:Pedig nagyságrendileg akörül, sőt, nem 240, hanem 300 cpu-val ér fel.
Egészen pontosan „számítási teljesítményében 300 Intel Core 2 Duo 2.4 Ghz gépnek felel meg, jóval kisebb energia fogyasztással mint egy hagyományos cluster.”
De nem is ez volna a lényeg.Ezzel elmehetnél politikusnak. Ők is így idéznek. :)))) (Mi felel meg? Mitől fogyaszt kevesebbet? Honnan idézted?)
Konkrétan kinéztem az nvidia oldaláról, hogy az ott leggagyibb kártya 8800 gts 105 W-ot, van ami 200 w körülit is.
Ezzel szemben
a legjobb c2d (e8600-as) 75 w,
a c2q q9650 95w,
a q9100 45 w
Amúgy egy qx9775, ill. egy 8800-as között a wikipedia szerint 10x-es a különbség a lebegőpontos számítás terén… de tudjuk, hogy a video kártya erre van kitalálva.
A fent említett cpu, úgy kb. a felét tudja…. akkor 20x-os hozzá képest.Tuschke wrote:„Az NVIDIA a grafikus processzorainak CUDA névre keresztelt fejlesztői környezetét 2007 februárjában tette elérhetővé, amelynek segítségével közvetlen módon férhet a programozó a gyártó GPU-ihoz.”És, ha elolvastad volna, amit linkeltél, akkor rájönnél, hogy ez pont nem arról szól, hogy a cpu feladatait ellássa, hanem arról van szó, hogy egyes matematikai problémákat old meg, mégpedig oly módon, hogy szabályos „gpu feladatokként” fogalmazzák meg.
Ja, ezt csinálják pl. a játékok. Kódokat sem fog neked feltörni, mert a pusztán brute force megoldás azonnal megbukik, ha nincs közvetlen hozzáférés.Tuschke wrote:Ez talán már nem csak az egyetemisták játszadozása. De még ha az is volna, jópár dolog kezdődött így.Pont ez az, hogy nem most kezdődött, hanem vagy 5-8 éve legalább. És azóta sincs semmi több gyakorlati haszna, mint, amire kitalálták (gyors lebegőpontos számítások – igen leegyszerűsítve). Az más kérdés, hogy problémákat fogalmaznak meg rá (mégpedig olyanokat, amik nem lesznek megjelenítve grafikailag). És ez eddig is így volt, csak eddig jórészt asm-ben kellett programozni, most meg c-ben. (És nem ez a pár játszadozó belga egyetemista találta ki.)
Nyílván a programok szaporodnak, de a cpu-ra írt programok is. Viszont az, hogy vannak nem jelenti azt, hogy pl. vadkannak használnia kellene és azt sem, hogy tudná mire használni.
Az meg marketing hülyeség, hogy a cpu feladat-köreire (maradéktalanul) alkalmas, mert nem az és nem is lesz az soha… hisz, akkor cpu-nak hívnák és ez a hatalmas flop számítási előny, amivel bírnak azonnal elveszne, mert másképp kéne működnie. -
SzerzőBejegyzés
- Be kell jelentkezni a hozzászóláshoz.
legutóbbi hsz