WeeBoo je napisao:
Bitno je da svako radi svoj posao kako treba
Interesantna statistika, i nista vise...

Zapravo se iz te statistike može vidjeti puno toga. Može se vidjeti koliko se velika procesna moć nalazi u modernim grafičkim procesorima (GPU) i da je šteta što se ona koristi samo u igrama. Toga su naravno svjesni i ovi koji prave GPU pa se već neko vrijeme radi na tome da i ostale aplikacije mogu da koriste procesnu moć koju ima GPU. Jedan način je korištenje CUDA programskog jezika koji je ekstenzija C++ a kojim se GPU može upregnuti i kod drugih aplikacija, osim igara. GPU je dosta snažniji od bilo kojeg CPU kada je u pitanju re-enkoding video fajlova. Dovoljno je pogledati ovo

"Jedna od slikovitih primena GPU computing-a je re-enkoding video fajla visoke definicije. Kompanija Elemental je kompajlirala svoj RapidHD softver i za GPU i nakon testa koji je sproveden, pokazalo se da je GTX 280 akcelerator čak više od 10x brži od najbržeg trenutno dostupnog desktop procesora. Elemental je zapravo razvio plug-in za Adobe Premiere, ali i posebnu transkoder aplikaciju (BadaBoom), i testovi su više puta pokazali da se dva minuta dug HD klip pomoću CPU-a enkoduje oko 2 minuta, dok isti posao GPU odradi za 21 sekundu. Folding@Home projekat radi sa koagulacijom molekula proteina, a ove simulacije pomažu da se sazna kakve sve bolesti mogu da izazovu tzv. loši proteini. Ove kalkulacije GPU izvršava na desetine, pa čak i stotine puta brže od sistemskih procesora. Kada je distribuirani computing u pitanju, NVIDIA navodi da je trenutno u svetu u upotrebi preko 70 miliona CUDA-ready grafičkih kartica sa prosečnom processing moći od oko 100 gigaFLOPS-a."
"Da nije sve samo mrtvo slovo na papiru, pokazuje i kompanija Adobe, koja je nedavno prikazala radnu verziju Photoshop-a koji koristi GPU za ubrzavanje manipulacija nad fotografijama. Učitana je slika rezolucije od 442 megapiksela, teška čak 2GB, a GPU je omogućio da se sa njom radi kao sa slikom od 5 megapiksela na u CS3 verziji ovog programa. Zumiranje i manipulacija nad fajlom je delovala impresivno, ali nova verzija Photoshopa je otišla i korak dalje u radu sa 3D objektima, pa možemo samo da zamislimo koliko će GPU biti od pomoći kod ovakvih poduhvata."
PhysX by NVIDIA "Programeri i inženjeri kompanije AGEIA, koja je sada takođe deo NVIDIA-e, nedavno su počeli da rade na portovanju kalkulatora fizike i PhysX API-ja u CUDA okruženje, a prve rezultate su pokazali nakon samo mesec dana posla. Odmah je zaključeno da čak i u alfa-fazi, PhysX radi brže na GeForce GTX 280 akceleratoru i do15 puta (simulacija tečnosti) nego na Intel Core 2 Quad procesoru. GPU je u slučaju simulacije mekih objekata 12 puta brži, dok se simulacija tkanina izvršava 13 puta brže. Neke od već najavljenih igara koje će koristiti PhysX su u poslednjim fazama izrade i očekuju se vrlo skoro (Mirror's Edge je, recimo, jedna od njih). GTX 280 akcelerator je, čak i sa alfa drajverom za PhysX oko 15-ak puta brži od posebnih AGEIA akceleratora fizike koji su se do nedavno prodavali (doduše, vrlo vrlo slabo)."
PureVideo"PureVideo je napredan sistem za hardversku reprodukciju novih formata namenjenih za filmove visoke rezolucije. VC-1 i H.264 su izuzetno zahtevni kodeci, a ako želite kvalitetno i napredno filtiranje, kompenzaciju pokreta i najviši kvalitet reprodukcije onda će i skoro svaki budžetski dual-core CPU današnjice biti opterećeni i do 80-90% samo tokom dekodiranja, uz ogroman broj propuštenih frejmova i nemogućnost da se neki resurs preusmeri na druge zadatke. NVIDIA PureVideo koristi 3D pipeline samog grafičkog procesora i ubrzava reprodukciju i to kroz Windows Media Player, ali i nove verzije PoweDVD i WinDVD plejera. PureVideo HD ima i mogućnost dinamičkog redukovanja šuma i izoštravanja slike, uz dodatno poboljšane performanse. Ne treba zaboraviti da će nove verzije kodeka uvek brzo biti hardverski podržane, pošto je PureVideo HD programabilan."
http://www.benchmark.rs/index.php?optio ... mitstart=5Lijepo je vidjeti da se ovi veoma jaki GPU-ovi sve više koriste kao ispomoć centralnom procesoru, a na čemu će se i sve više raditi. Uskoro će zbog ovoga izgledati kao da u startu na neki način imamo po dva procesora u kompjuteru koji se međusobno ispomažu i nadopunjuju.