View Full Version : Shader 2.0 vs 3.0: la parola ai games developer
Redazione di Hardware Upg
23-04-2004, 09:29
Link alla notizia: http://news.hwupgrade.it/12286.html
Ci sono numerose indiscrezioni sul reale beneficio che gli Shader 3.0 potranno portare, nel breve periodo, nello sviluppo dei nuovi giochi
Click sul link per visualizzare la notizia.
voglio saperne di+.:confused:
Saeba Ryo
23-04-2004, 09:39
PEr me più che shader 3.0 o 4.0 è importante che supportino nuove feature come la compressione mpeg4 e mpeg2! Abbiamo delle schede grafiche potentissime sfruttate solo per i giochi...
NO...abbiamo delle schede per i giochi e basta!
Il problema vero è che la potenza di calcolo e le funzioni supportate dall'hardware non mancano: sono i giochi che non ne fanno uso e non ne sfruttano le caratteristiche! (se non con enorme ritardo!)
Tubo Catodico
23-04-2004, 09:57
Sapete che non ci avevo mai pensato....?!?!
Cavolo avete proprio ragione!!!!!!!
E poi...che ben vengano i PS 3.0 da parte di nVidia...ma non è che poi succede come con i Dx9 e Half Life2 eh? CHe poi nVidia implementa una cosa che dovrebbe andare in un certomodo e alla fine va piano come una lumaca? Non sarebbe meglio che questi standard vadano di paripasso sia in hardware che in software...cioè che si vedano le prime schede quando escono i primi giochi che supportano tali tecnologie?
Crisidelm
23-04-2004, 10:10
Come mettere il carro davanti ai buoi insomma...
si in effetti questa corsa agli shaders piuttosto che a features piu "solide" è un po ridicola.....del resto se la gente compra skede da 600 euro per giocare a far cry il mercato non ce ne puo nulla.....poi uno si ritrova a dover spendere piu di mille euro per skede con features piu "particolari" per lavorare......in pratica secondo ati e nvidia un pc è una console un po piu costosa (che desolazione)...
>.....D'altro canto, al momento attuale molti games >developer riconoscono che con gli Shader 2.0 si >possano creare tutti i risultati, in termini visivi, >ottenibili anche con Shader 3.0 e che la precisione a >32bit sia qualcosa di estremamente interessante, ma >che per il dettaglio attuale non diventi un requisito >indispensabile.
..un modo educato per dire che non servono a granchè.
se leggete i commenti di tutti ma proprio tutti i migliori sviluppatori di software e vi scaricate la presentazione del motore di unreal 3 fatto girare con una 6800Ultra vi ricredereste.
Basta vedere a fine video la differenza tra Farcry con pixelshaders 2.0 e 3.0 per andare a comprarsi una 6800 a fine video.
Originariamente inviato da sslazio
se leggete i commenti di tutti ma proprio tutti i migliori sviluppatori di software e vi scaricate la presentazione del motore di unreal 3 fatto girare con una 6800Ultra vi ricredereste.
Basta vedere a fine video la differenza tra Farcry con pixelshaders 2.0 e 3.0 per andare a comprarsi una 6800 a fine video.
Puoi indicarmi un link in cui vedere le differenze in farcry tra pixel shader 2.0 e 3.0 ??
Grazie
:)
faraone_ufo
23-04-2004, 10:32
in molti hanno detto che quelle immagini in realtà erano la differenza tra SENZA PS e PS 3.0, in effetti io con la mia umile 9600pro vedo MOLTO meglio di quanto si voglia far credere con le immagini a cui ti riferisci
sanitarium
23-04-2004, 10:33
Originariamente inviato da sslazio
se leggete i commenti di tutti ma proprio tutti i migliori sviluppatori di software e vi scaricate la presentazione del motore di unreal 3 fatto girare con una 6800Ultra vi ricredereste.
Basta vedere a fine video la differenza tra Farcry con pixelshaders 2.0 e 3.0 per andare a comprarsi una 6800 a fine video.
Se non sbaglio quel confronto è stato fatto con settaggi qualitativi nettamente diversi (senza PS vs PS3.0, e NON PS2.0 vs PS3.0), ecco spiegata la differenza clamorosa in fatto di qualità d'immagine.
Io far cry con i PS2.0 non lo vedo certo in quel modo ridicolo... :rotfl:
nonikname
23-04-2004, 10:53
Sembra che la crytek abbia impiegato 3 settimane per modificare l'engine , implementando nativamente gli Shader Model 3.0....
Quindi il passaggio da 2.0 a 3.0 sarà molto più veloce che quello visto dalle dX8.1 alle dx9...
Questi (http://www.nvnews.net/vbulletin/attachment.php?attachmentid=5315) sono i prossimi giochi che sfruttano le nuove feature della 6800 , e ne seguiranno molti altri entro la fine dell'anno ....non dimentichiamoci che Nvidia ha stretto molte alleanze con le più importanti softwareHouse (a parte Valve , intenta a produrre buoni omaggio di halfLife2 :D) , quindi gli shader 3.0 , più che una feature tecnologica , sono un arma commerciale che sarà sfruttata pienamente da Nvidia ...
Vi consiglio di vedere il filmato (http://event.on24.com/eventRegistration/EventLobbyServlet?target=lobby.jsp&playerwidth=786&playerheight=534&eventid=6094&sessionid=1&key=3F042A3D6496284BE919209852E7CA8F&eventuserid=1576999) del lancio della 6800u dove c'è Farcry con patch Shader 3.0 e tutte le ombre in tempo reale , su tutta l'isola , con una modifica spettacolare dalla sabbia della spiaggia trasformata in pietre sempre con ombre rigorosamente dinamiche !!!
Forse siamo di fronte allo stesso passaggio avvenuto con l'implementazione del Trasform & light , dove tutti dicevano a Nv che il processore era abbastanza veloce per sopperire a questa mancanza della GPU , infatti ora chi non ha gli shader 3.0 nativi dice che si possono realizzare gli stessi effetti con più passaggi di shader 2.0.....
Solo i prossimi giochi potranno darci una risposta ......
postfazione: quello di sotto è l'esempio lampante di ocme qua ci si continua a prendere per il culo in modo addirittura eccessivo... e noi pecoroni che andiamo dietro a tutte le loro schede che mettono fuori ogni 6 mesi... ati e nvidia... |VAFFANCUL0| ma anche ai programmatori che invece di sbattersi programmano con la mentalità del visual basic....
"Ieri, spulciando Slashdot come mio solito, mi sono imbattuto nel demo di uno sparatutto in prima persona intitolato .kkrieger. Nulla di trascendentale dal punto di vista del gameplay (cosa dicevamo ieri?), piuttosto semplice e immediato, quasi "old-style" oserei dire, con orde di nemici che ti si fanno incontro senza particolari attenzioni; le armi possono essere tranquillamente classificate come le "solite". La grafica non è malaccio: ambientazione fantascientifico-claustrofobica con stanze piuttosto piccole, luci dinamiche, ombre calcolate in tempo reale, modelli discretamente dettagliati (anche quelli delle armi).
I suoni sono poco realistici e la musica di sottofondo non è memorabile. I controlli sono limitati alla scelta delle armi, al movimento nelle quattro direzioni, al salto e al free look con il mouse. Se vi state chiedendo dove voglio arrivare con questa prosopopea, vi accontento subito: tutto quanto vi ho appena descritto è racchiuso, e credeteci perchè è vero, in soli 96 kb di codice eseguibile. Ogni elemento del gioco viene generato in tempo reale all'avvio, che richiede infatti qualche minuto, e un computer piuttosto potente per girare, però funziona, eccome! A dimostrazione del fatto che esistono ancora buoni (in questo caso direi geniali) programmatori. Chiudo citando Shlasdot: «quello che colpisce maggiormente è che l'intero gioco è grande più o meno quanto il readme.txt di UT2004»"
nonikname
23-04-2004, 10:56
Posto anche questo pezzo , perchè sul forum si vede ma sul sito no:
Questi (http://www.nvnews.net/vbulletin/attachment.php?attachmentid=5315) sono i prossimi giochi che sfruttano le nuove feature della 6800 , e ne seguiranno molti altri entro la fine dell'anno ....non dimentichiamoci che Nvidia ha stretto molte alleanze con le più importanti softwareHouse (a parte Valve , intenta a produrre buoni omaggio di halfLife2 :D) , quindi gli shader 3.0 , più che una feature tecnologica , sono un arma commerciale che sarà sfruttata pienamente da Nvidia ...
dr-omega
23-04-2004, 11:01
Ehm, il link di cui sopra è relativo ad una immagine e non a un filmato... :D
Athlon 64 3000+
23-04-2004, 11:03
a me sinceramente non interessano gli Shader 3.0 perchè con gli anni ho imparato molto cosè riguardo l'acquisto di una scheda video.Una volta quando vedevo la presentazione di una nuova architettura(Geforce256 e Geforce3 per esempio)sbavavo dietro alla carattesistiche della scheda e ai demo che facevano vedere e la scheda e io volevo che i giochi la supportassero fin da subito ma così non è mai successo.Quando presi la Geforce DDR speravo che la supportassero massicciamente ma il T&L è stato ad essere usato solo 1 anno e mezzo dopo l'uscita della scheda.Stesso cosa per la Geforce3 uscita a Marzo 2001 e il primo gioco che la ha veramente sfruttata per primo è stato Moto Gp nel luglio 2002(oltra un'anno dopo).
La Radeon 9700Pro è uscita a settembre 2002 e il primo gioco che la ha cominciata a sfruttare è stato Far Cry uscito ben un'anno e mezzo dopo.Se io devo prendere una scheda solo per gli shader 3.0 e credero che saranno usati subito mi dispiace ma non lo faccio più perchè tanto gli shader 3.0 veranno usati solo nel 2005 inoltrato se non più tardi e quando ci sanno fuori gia L'R500 e l'NV50.
Io condivido la politica di Ati di cercare di velocizzare il più possibile l'esecuzione degli shader 2.0 dato che tanto le schede che devono uscire nei prossimi mesi non ce la faranno mai a far girare in maniera decente dei giochi che userranno massicciamente gli shader 3.0
DevilsAdvocate
23-04-2004, 11:05
Ehm...... a me sembrano le solite buffonate.....
Per di piu' mi citate un titolo, Unreal 3.......
qualcuno e' riuscito a giocarsi il 2 completamente?
Se non sbaglio era piu' un tech demo che un gioco vero
e proprio,per carita', bellissimo dal punto di vista grafico......ma il resto?
Solo il tempo ci dira' quanto sono utili questi shader 3.0....
nonikname
23-04-2004, 11:06
Originariamente inviato da dr-omega
Ehm, il link di cui sopra è relativo ad una immagine e non a un filmato... :D
Vai sul forum a leggere il post , sul sito manca la parte centrale ....
kkrieger-beta è davvero uno spettacolo , 96k uno sparatutto in prima persona , anche abbastanza carino : incredibile...
Se non ci credete scarcatelo , non vi costa niente :
link (http://www.gamershell.com/download_5578.shtml)
Originariamente inviato da m4xt3r
Il problema vero è che la potenza di calcolo e le funzioni supportate dall'hardware non mancano: sono i giochi che non ne fanno uso e non ne sfruttano le caratteristiche! (se non con enorme ritardo!)
Ci sono due motivi principali per questo ritardo. Il primo e' di natura puramente tecnica: ci vuole tempo per imparare un nuovo paradigma di shader e ricercare gli algoritmi.
Il secondo, piu' importante, e' di natura commerciale: quando piu' del 70% del mercato possiede schede DX7 o DX8, non ha senso un enorme quantita' di tempo e denaro nello sviluppare effetti che solo una minoranza del mercato puo' godere. Meglio spendere quel tempo e quei soldi in maniera piu' redditizia (tipo sul gameplay).
Originariamente inviato da Wonder
E poi...che ben vengano i PS 3.0 da parte di nVidia...ma non è che poi succede come con i Dx9 e Half Life2 eh? CHe poi nVidia implementa una cosa che dovrebbe andare in un certomodo e alla fine va piano come una lumaca? Non sarebbe meglio che questi standard vadano di paripasso sia in hardware che in software...cioè che si vedano le prime schede quando escono i primi giochi che supportano tali tecnologie?
E come fanno i giochi a sviluppare queste tecnologie se non esistono in commercio le schede sulle quali svilupparle? :)
La prima generazione di ogni nuova architettura (NV20, NV30, NV40) e' sempre dedicata agli sviluppatori, per imparare l'architettura e sviluppare gli effetti, mentre la seconda generazione e' ottimizzata per il pubblico.
Originariamente inviato da sslazio
se leggete i commenti di tutti ma proprio tutti i migliori sviluppatori di software e vi scaricate la presentazione del motore di unreal 3 fatto girare con una 6800Ultra vi ricredereste.
Basta vedere a fine video la differenza tra Farcry con pixelshaders 2.0 e 3.0 per andare a comprarsi una 6800 a fine video.
Non c'e' differenza fra i PS2.0 e PS3.0 in farcry perche' e' una semplice ricompilazione dello stesso shader (la 3.0 e' retrocompatibile). In altre parole e' solo una mossa di marketing, un po' come il supporto a 64bit.
Originariamente inviato da skizo
postfazione: quello di sotto è l'esempio lampante di ocme qua ci si continua a prendere per il culo in modo addirittura eccessivo... e noi pecoroni che andiamo dietro a tutte le loro schede che mettono fuori ogni 6 mesi... ati e nvidia... |VAFFANCUL0| ma anche ai programmatori che invece di sbattersi programmano con la mentalità del visual basic....
Ehm... :)
Vuoi provare a scrivere un motore 3d? Poi riparliamo della mentalita' del visual basic.
Riguardo la differenza fra 2.0 e 3.0 il discorso va suddiviso fra vertex e pixel shader.
Mentre i pixel shader 3.0 non includono nulla di particolarmente nuovo a parte il dynamic branching che comunque non e' sfruttabile in questa generazione per motivi prestazionali, i vertex shader 3.0 introducono una rivoluzione: i fetch delle texture.
Solo quest'istruzione permette l'implementazione di algoritmi che fino ai 2.0 erano impossibili oppure molto ma molto inefficienti. Unito al futuro PCI-E rappresentera' un vero e proprio salto tecnologico.
dr-omega
23-04-2004, 11:15
Originariamente inviato da DevilsAdvocate
Ehm...... a me sembrano le solite buffonate.....
Per di piu' mi citate un titolo, Unreal 3.......
qualcuno e' riuscito a giocarsi il 2 completamente?
Se non sbaglio era piu' un tech demo che un gioco vero
e proprio,per carita', bellissimo dal punto di vista grafico......ma il resto?
Boh, io l'ho finito, mi è pure piaciuto molto, ma il fatto che fosse solo single player l'ha castrato...
DevilsAdvocate
23-04-2004, 11:23
P.S.: La bellezza grafica di Farcry dipende al 90%
dal fatto che e' il primo titolo a sfruttare il dot3
bumpmapping (fate una ricerca in rete x vedere cosa e'
polybump) detto anche normal mapping, che sara' sfruttato anche da DOOM3 e rende meno "piatti" i poligoni dei personaggi/mostri. La tecnologia DOT3 bump e' presente in ogni scheda a partire dal radeon 8500 (non che questa scheda possa farlo girare alla velocita' giusta.....) e non c'entra niente con gli shader.
un tempo i programmatori di videogiochi dovevano farsi in quattro per far girare le loro opere su un hw ridotto (parlo dei vecchissimi tempi !!! 286, 386, ecc..). Poi, sfortunatamente, arrivarono i Pentium, le schede grafiche accelerate e i programmatori, per motivi commerciali, hanno disimparato a programmare con logica.
Oggi come oggi si sforna un codice pesante, non ottimizzato, pieno di bug e lo si spaccia per un videogame solo perchè l'hardware è talmente potente da fare da solo.
Comprando schede video costose solo per vedere piccoli miglioramenti grafici o qualche fps in più dimostra solo una cosa: la politica economica intrapresa tanto tempo fa ha dato i suoi risultati e noi, che ci lamentiamo sempre dei prezzi (però poi compriamo) siamo le ruote che fanno girare questa macchina ... ora corro a comprarmi la nv40 (siamo i drogati dell'elettronica !!!)
Originariamente inviato da fek
Non c'e' differenza fra i PS2.0 e PS3.0 in farcry perche' e' una semplice ricompilazione dello stesso shader (la 3.0 e' retrocompatibile). In altre parole e' solo una mossa di marketing, un po' come il supporto a 64bit.
Fek, se non ti offendi ti risparmio un pò di lavoro e ti copio/incollo il post che hai fatto su Nvitalia per spiegare quanto sopra, così eviti di riscriverla:
Originariamente inviato da fek
Hai ragione, non cambiera' assolutamente nulla.
Adesso ti faccio vedere come hanno aggiunto il supporto ai PS3.0:
Versione 2.0:
VertexShader = compile vs_2_0 MaterialVS();
PixelShader = compile ps_2_0 MaterialPS();
Versione 2.0+ (NVIDIA):
VertexShader = compile vs_2_a MaterialVS();
PixelShader = compile ps_2_a MaterialPS();
Versione 3.0!!
VertexShader = compile vs_3_0 MaterialVS();
PixelShader = compile ps_3_0 MaterialPS();
HLSL e' la manna dal cielo.
Volete vedere un gioco ben programmato e che sfrutta l'hardware? :D
http://kk.kema.at/files/kkrieger_snapshot1.jpg
http://kk.kema.at/files/kkrieger_snapshot2.jpg
http://kk.kema.at/files/kkrieger_snapshot3.jpg
http://kk.kema.at/files/kkrieger_snapshot4.jpg
http://kk.kema.at/files/kkrieger_snapshot5.jpg
Queste screenshot sono presi da un gioco di 96Kb comprensivo di musica e effetti sonori!! :D :D :D
Qua lo potete scaricare e provare http://kk.kema.at/files/kkrieger-beta.zip !!!!
CIAO! :D
zerothehero
23-04-2004, 11:56
io eviterei la santificazione di quel gioco dato che per l'enorme pesantezza fa crashare anche il mio p4..inoltre è pure molto lento(far cry mi va più veloce)...quindi un lavoro del genere è troppo estremo, anche se può essere un interessante spunto di come si programma.
Cmq ritornando alla diatriba ps2-ps3 da quanto ho capito (anche grazie a persone come yossarian) non dovrebbe esserci una così marcata differenza visiva tra i due shader cmq tra le due schede a parità di prestazioni preferisco quella che li ha..
nickthename
23-04-2004, 12:03
Il risultato è notevole solo che sai quanto ha allocato sul mio pc (Athlon 3000+ con 1GB DDR400) ?
più di 300MB!!!
DeMonViTo
23-04-2004, 12:03
@zerothehero....
Guarda ke sul mio amd xp+ 2500@3200+ va' cosi' veloce che fa' paura.... zero scatti, zero crash e con altri programmi sotto (leggi emule e co)
;)
Cmq ragazzi vedremo veramente come andranno le cose... anche l'ultima volta Nvidia aveva promesso e fatto vedere risultati strabilianti quando di strabiliante c'era poco... tra l'altro doveva far soccombere ati con la nv35... quando era lili come prestazioni...
che Ati non faccia sapere nulla un po' mi mette curiosita'... avranno l'asso nella manica? o sano di non essere al pari e quindi stanno lavorando per diventare superiori e non fae la figuraccia di Nvidia?
staremo a vedere :)
Sawato Onizuka
23-04-2004, 12:08
pensavo di mettere mano ad una nuova FX o X800 ma visto che oggi per pura distrazione mi son ricreduto sulle potenzialità della XT o cambio cpu o attendo l'a64 939 :sofico:
vi spiego:
nella parte finale del livello "archivi" quando c'è quel bello spazio aperto pieno di insulsi nemici la prima volta ho visto che swappava ... mmhh be' oggi nn lo aveva ancora fatto così platealmente ... dopo 10 sec è tornato ok ... ops stavo giocando con AA 4x e AF 8x dimenticati on dalla partita di ieri a PES 3 :mc: :sofico: :oink:
il bello è che ho la sk cloccata a @440/800 per avere di più devo v-moddare ... 56.72 r0x per quest'anno niente vga nuova :D
@zerothehero and nickthename
P4 2.6 con 1Gb di RAM e Ati 9700 viaggia da paura, zero crash e con programmi sotto.
Capisco che allochi 300Mb ma un gioco quanto spazio prende su Disco? Quanti swap fa? :D :D
E cmq in 96kb tira fuori una grafica paragonabile a quella di un gioco che occupa circa 10000 volte tanto :D
leoneazzurro
23-04-2004, 12:49
a volte dipende da conflitti tra gioco e alcune modalità del driver video.
A de esempio qualche tempo fa giocherellavo a NWN con la ATi 9800 pro, catalyst 4.4. Se cercavo di fare uno screen shot premendo STAMP mi si resettava il PC... ed il responsabile era sempre un conflitto col driver video. Con altri giochi mai avuto problemi e anche giocando normalmente problemi non ne ho.
Al contrario sul mio secondo PC con GeForce 5900 XT (tra l'altro overcloccata a livello 5900 Ultra) il tutto andava alla perfezione.
Originariamente inviato da JoJo
@zerothehero and nickthename
P4 2.6 con 1Gb di RAM e Ati 9700 viaggia da paura, zero crash e con programmi sotto.
Capisco che allochi 300Mb ma un gioco quanto spazio prende su Disco? Quanti swap fa? :D :D
E cmq in 96kb tira fuori una grafica paragonabile a quella di un gioco che occupa circa 10000 volte tanto :D
Per minimazzare gli swap, l'importante non e' quanto occupa su disco, ma quanto occupa in memoria centrale.
Quell'fps e' un bell'esperimento, ma non puo' essere un gioco vendibile, perche' le texture sono ovviamente tutte calcolate con algoritmi e quindi sono abbastanza ripetitive (basta guardare il pavimento...). E' un bell'esperimento, ma rimane comunque tale.
Originariamente inviato da fek
le texture sono ovviamente tutte calcolate con algoritmi e quindi sono abbastanza ripetitive (basta guardare il pavimento...). E' un bell'esperimento, ma rimane comunque tale.
Beh... se invece di 96kb fosse 1Mb... (cmq è ancora in versione "beta") :D :D
Originariamente inviato da JoJo
Beh... se invece di 96kb fosse 1Mb... (cmq è ancora in versione "beta") :D :D
Non cambierebbe molto, il problema e' negli algoritmi, non nella quantita' di memoria usata :)
Ancora non esistono algoritmi in grado di generare matematicamente texture perfettamente realistiche. Per la verita' e' impossibile che esista un tale algoritmo.
dotlinux
23-04-2004, 13:08
Il gioco è vendibilissimo anzi .... si dice lo sarà entro un anno.
Riguardo gli alforitmi, mi sa che c'è tanta confusione qui.
Ciao a tutti
Vedremo quanto vendera' :)
A me gira su una athol a 1ghz 256 mb di ram e 9100
Qualche scattino lo fa a dire il vero.
Motosauro
23-04-2004, 14:23
Gli algoritmi saranno la soluzione del futuro: le giuste equazioni frattali e la texture è bell'è pronta: commercialmente tende a costare troppo un designer che te le fa a mano. Mi pare cmq che ci siano già stati giochi con texture frattali (o mi sbaglio?).
È innegabile che ormai i programmatori non ci si sbattano più tanto a cercare soluzioni furbe, tanto basta far comprare nuovo hardware all'utente...
Il problema cmq è dell'intero sistema dell'intrattenimento: quand'anche i programmatori si sbattessero a spremere le schede, poi mancherebbe la sceneggiatura e così via. Solo il multiplayer è + o - indenne da quest'ultimo problema, in quanto sono i giocatori stessi a sviluppare i contenuti; il gioco offre solo un canovaccio striminzito. È per questo che adoro il MP.
Quel demo rulla di brutto :D
Sawato Onizuka
23-04-2004, 14:27
Originariamente inviato da leoneazzurro
A de esempio qualche tempo fa giocherellavo a NWN con la ATi 9800 pro, catalyst 4.4. Se cercavo di fare uno screen shot premendo STAMP mi si resettava il PC... ed il responsabile era sempre un conflitto col driver video. Con altri giochi mai avuto problemi e anche giocando normalmente problemi non ne ho.
NWN ho provato sulla mia pelle che con le Radeon nn andava sempre d'accordo (8500)
persino la Xabre girava più veloce con NWN della 8500le coi 3.5 :cry:
i 3.9 avevano risolto un po' però mah ... vabbe' 1 gioco su 1000 :)
Dark Schneider
23-04-2004, 14:36
Originariamente inviato da dotlinux
Il gioco è vendibilissimo anzi .... si dice lo sarà entro un anno.
Riguardo gli alforitmi, mi sa che c'è tanta confusione qui.
Ciao a tutti
Non credo che fek possa essere confuso riguardo gli algoritmi.:D
Per di più è vero: è notevole si...però avete notato quanto son ripetitivi i pavimenti, muri,ecc.? E' tutto uguale...monotono direi!! Cmq è interessante.
dotlinux
23-04-2004, 14:51
Non mi riferivo a fek, chi doveva capire ... ha capito ;)
leoneazzurro
23-04-2004, 14:59
Originariamente inviato da Sawato Onizuka
NWN ho provato sulla mia pelle che con le Radeon nn andava sempre d'accordo (8500)
persino la Xabre girava più veloce con NWN della 8500le coi 3.5 :cry:
i 3.9 avevano risolto un po' però mah ... vabbe' 1 gioco su 1000 :)
Ho solo detto (esemplificando il mio caso) che alcuni dei problemi che si hanno con il gioco in questione possono dipendere da come "interferiscono" tra di loro driver (di qualunque marca esso sia) e programma stesso. Comunque i giochi sono più di "1 su 1000", da ambo le parti ;)
Dopotutto penso che il supporto PS3.0 sia retrocompatibile con il PS2.0...
adynak :"un tempo i programmatori di videogiochi dovevano farsi in quattro per far girare le loro opere su un hw ridotto (parlo dei vecchissimi tempi !!! 286, 386, ecc..). Poi, sfortunatamente, arrivarono i Pentium, le schede grafiche accelerate e i programmatori, per motivi commerciali, hanno disimparato a programmare con logica.
Oggi come oggi si sforna un codice pesante, non ottimizzato, pieno di bug e lo si spaccia per un videogame solo perchè l'hardware è talmente potente da fare da solo.
Comprando schede video costose solo per vedere piccoli miglioramenti grafici o qualche fps in più dimostra solo una cosa: la politica economica intrapresa tanto tempo fa ha dato i suoi risultati e noi, che ci lamentiamo sempre dei prezzi (però poi compriamo) siamo le ruote che fanno girare questa macchina ... ora corro a comprarmi la nv40 (siamo i drogati dell'elettronica !!!)"
IMHO in parte hai ragione, ma per pochi ma importanti motivi:
-Tempi di sviluppo ridotti: La tecnologia cresce molto più velocemente e quindi per non far diventare il gioco obsoleto fin dalla sua uscita sono costretti a velocizzare lo sviluppo;
-Giochi/Applicazioni sempre più tendenti al realismo e al dettaglio
Per quanto riguarda il codice pesante... Non so se te sei programmatore, ma se scrivessero codice non ottimizzato, si darebbero la "zappa sui piedi". :|
Originariamente inviato da adynak
un tempo i programmatori di videogiochi dovevano farsi in quattro per far girare le loro opere su un hw ridotto (parlo dei vecchissimi tempi !!! 286, 386, ecc..). Poi, sfortunatamente, arrivarono i Pentium, le schede grafiche accelerate e i programmatori, per motivi commerciali, hanno disimparato a programmare con logica.
Oggi come oggi si sforna un codice pesante, non ottimizzato, pieno di bug e lo si spaccia per un videogame solo perchè l'hardware è talmente potente da fare da solo.
Francamente, non sai di che cosa stai parlando :)
Non sono un programmatore professionista, ma di programmazione penso di saperne abbastanza. Secondo me il codice non è ottimizzato per niente e proprio a causa dei motivi per cui tu concordi con me: troppo poco tempo. Non voglio dire che i programmatori di oggi non sanno fare il loro mestiere, ma solo che a causa delle leggi del mercato non è più permesso loro di farlo. Se il codice fosse ottimizzato non vedrei la necessità di correggerlo continuamente con patch (ci sono giochi che se installati appena usciti dalla scatola del negozio fanno fatica a girare...TOEE per dirne uno). E' come quando ci si trova a dover lavorare con microcontrollori da pochi KB...ci si sbatte per far entrare tutto il codice eseguibile in quella poca memoria quando lo stesso programma, scritto in c e non in assembler, è molto più semplice (poche righe) ma anche oneroso !!!
A me sembra che l'attuale tendenza sia: il gioco funziona su questo hw (che poniamo come base minima) ? Se sì allora facciamolo uscire, altrimenti sbattiamoci un pochino per migliorarlo.
Ottimizzare un codice complesso porta via tanto tempo e proprio per la sua mancanza ci diamo la "zappa sui piedi".
Comunque questa è solo una mia opinione e non pretendo di avere ragione !?!
...ora vado a comprare la NV40...qualcuno di voi ha 500 eurozzi da prestarmi ?
Originariamente inviato da adynak
Non sono un programmatore professionista, ma di programmazione penso di saperne abbastanza. Secondo me il codice non è ottimizzato per niente e proprio a causa dei motivi per cui tu concordi con me: troppo poco tempo. Non voglio dire che i programmatori di oggi non sanno fare il loro mestiere, ma solo che a causa delle leggi del mercato non è più permesso loro di farlo. Se il codice fosse ottimizzato non vedrei la necessità di correggerlo continuamente con patch (ci sono giochi che se installati appena usciti dalla scatola del negozio fanno fatica a girare...TOEE per dirne uno). E' come quando ci si trova a dover lavorare con microcontrollori da pochi KB...ci si sbatte per far entrare tutto il codice eseguibile in quella poca memoria quando lo stesso programma, scritto in c e non in assembler, è molto più semplice (poche righe) ma anche oneroso !!!
A me sembra che l'attuale tendenza sia: il gioco funziona su questo hw (che poniamo come base minima) ? Se sì allora facciamolo uscire, altrimenti sbattiamoci un pochino per migliorarlo.
Ottimizzare un codice complesso porta via tanto tempo e proprio per la sua mancanza ci diamo la "zappa sui piedi".
Comunque questa è solo una mia opinione e non pretendo di avere ragione !?!
...ora vado a comprare la NV40...qualcuno di voi ha 500 eurozzi da prestarmi ?
Secondo me stai solo facendo molta confusione, o, meglio, non riesci ad apprezzare le reali proporzioni del problema. Innanzi tutto parli di "ottimizzazione", come se si scrivesse del codice e poi lo si inizia ad "ottimizzare" a prescindere da tutto il resto. Poi confondi l'ottimizzazione delle prestazioni con la compatibilita' (il funzionare su diverse piattaforme).
Un problema per volta.
Ottimizzare non funziona cosi', ma e' qualcosa di molto diverso, perche' nessun sistema software puo', per definizione, essere ottimizzato all'estremo. Proprio il concetto di ottimizzazione all'estremo non ha senso. Quello che succede e': si sceglie il target di prestazioni che si vuole ottenere, diciamo un certo numero di FPS medio o minimo su ogni diversa piattaforma sul quale il gioco per PC deve girare, ad esempio. Fatta questa scelta, si fa il "profiling" dell'applicazione nelle varie condizione per scoprire i colli di bottiglia che limitano le prestazioni. E poi si ottimizzano quei colli di bottiglia. Il processo va avanti fino a che l'obiettivo non e' raggiunto oppure si effettuano dei "tagli" ai contenuti o agl'algoritmi di modo da raggiungere quel target. Raggiunto il target ci si ferma, perche' non ha alcun senso ottimizzare ulteriormente. Tutti i giochi di questo pianeta sono ottimizzati e lo sono per le piattaforme che rappresentano la maggioranza del mercato. Affermare che i programmatori non programmano piu' come una volta perche' le macchine sono piu' potenti significa semplicemente non sapere di che cosa si sta parlando.
Il secondo problema e' la compatibilita' e porti l'esempio del microcontrollore. Facendo cosi' gia' invalidi il tuo discorso perche' confronti le mele con le pere. Un microcontrollore e' una piattaforma ben definita e costante nel tempo. Un PC non lo e', un gioco per PC deve girare su diverse architetture e questo pone problemi che la programmazione per un sistema fisso (un microcontrollore oppure una console) non pone. Le tecniche di ottimizzazione sono completamente diverse e non ha neppure senso fare il confronto. In un microcontrollore non hai neppure il problema della compatibilita'. Su PC hai questo problema, e risolverlo e' forse il 50% del tempo speso in un motore 3d, ad esempio.
DevilsAdvocate
23-04-2004, 16:18
IMHO
Il grosso problema dei costi non dipende tanto dagli
artisti quanto dalla volonta' delle software house di
voler riscrivere ognuna il proprio engine..... non trovando quindi uno standard ne' per i giocatori ne'
per gli artisti (ES:gli animatori devono convertire
tutto 2 miliardi di volte....)
Se semplicemente scegliessero di "adottare o sponsorizzare" dei progetti Open Source per quanto riguarda l'engine grafico (ed esistono, ad esempio l'ogre) standardizzando di fatto i file grafici/sonori, permettendo la creazione di tools sempre migliori (cosa attualmente infattibile visto che esistono 300000 di standard), lasciando che i programmatori si occupino di programmare il gioco e non la grafica (e testare la giocabilita') e gli artisti di creare invece che convertire/improvvisare,avremmo giochi piu' belli, loro avrebbero costi minori (e non di poco).
Per non dire poi che con aggiornamenti delle sole librerie dell'engine alcuni effetti sarebbero automaticamente aggiunti anche sui giochi piu' vecchi
(non tutti in quanto alcuni necessitano di mappe/risorse non presenti nel gioco) e quindi il problema di sfruttare la nuova funzione zzz della scheda appena uscita sarebbe quasi risolto.
DevilsAdvocate
23-04-2004, 16:21
P.S.: Dimenticavo, il motore che ho menzionato (ogre)
non presenta una licenza GPL (che costringerebbe a rendere pubblico tutto il codice del gioco) bensi LGPL
(che costringe a rendere Open Source solo le modifiche
all'engine stesso, in modo che si sviluppi e migliori...)
Originariamente inviato da DevilsAdvocate
Se semplicemente scegliessero di "adottare o sponsorizzare" dei progetti Open Source per quanto riguarda l'engine grafico (ed esistono, ad esempio l'ogre) standardizzando di fatto i file grafici/sonori, permettendo la creazione di tools sempre migliori (cosa attualmente infattibile visto che esistono 300000 di standard), lasciando che i programmatori si occupino di programmare il gioco e non la grafica (e testare la giocabilita') e gli artisti di creare invece che convertire/improvvisare,avremmo giochi piu' belli, loro avrebbero costi minori (e non di poco).
Hmmm... nella maggior parte dei casi costa meno scriversi un motore 3d che faccia solo quello che serve alla propria applicazione e nulla di piu', piuttosto che prendere un motore gia' fatto e imparare ad usarlo e adattarlo alle proprie esigenze (magari con limitazioni). Poi una soluzione generica e' per forza di cose meno efficiente.
generals
23-04-2004, 16:29
Comunque si può parlare di programmazione scendendo a livello più tecnico ma in ogni caso non si può negare che non tutti i programmatori e le software house sono uguali. Esempio pratico i giochi della ID sono sempre ottimi sul piano risorse (necessarie)/prestazioni ottenute, lo stesso discorso non si può estendere ad altri che escono con Giochi che potrebbero essere notevolmente migliorati e non lo fanno o non lo sanno fare.
Hai sicuramente ragione quando dici che il problema della compatibilità è diverso da quello dell'ottimizzazione. L'esempio che ho citato è stato mal interpretato: volevo solo dire che se si sfrutta al meglio un'architettura povera grazie a un codice solido si possono ottenere prestazioni analoghe a quelle ottenute da un codice mediocre fatto girare su un'architettura più sostanziosa.
Inoltre non ho detto che i programmatori non programmano più come un tempo perchè ci sono i computer più potenti, ma ho detto che a causa delle leggi di mercato (ovvero poco tempo) e di computer sempre più potenti c'è meno esigenza di ottimizzare perchè la "media" degli utenti ha un pc suffucientemente potente da far girare il gioco nel target di prestazioni stabilito.
In soldoni quello che voglio dire è che la frenesia con cui escono nuove tecnologie non ci permette di godere pienamente di quelle di cui disponiamo.
In questo forum ho letto tante cose e piu' che altro critiche su cattiva programmazione e nulla ottimizzazione. Non ho ancora visto UNO solo che ammettesse che negli ultimi 4 anni PESSIMA programmazione o meno, la qualita' grafica dei giochi e' migliorata in modo impressionante! Il nature del 3d mark 2001 che una volta impressionava, oggi e' diventato un gioco con Far Cry... nessuno l'ha notato? Poveri programmatori! Saranno anche grami, sfrutteranno un terzo dei pixel shaders del mondo, i pixel shaders saranno tutti una fregatura, pero' insomma almeno notare che un miglioramento qualitativo enorme c'e' stato mi pare sia giusto scriverlo, no? L'acqua di Morrowind con pixel shader 1.4 e' fantastica, le luci nei giochi moderni sono realistiche, i mondi 3d si avvicinano sempre piu' al reale e qui si continua a dire che c'e' pessima programmazione.
Spero che siate un minimo d'accordo con me... era solo per spezzare una lancia in favore dei programmatori, tutto qua :) che poi si dovrebbe fare di piu', ok, pero' un minimo poverelli andrebbero capiti, no?
Originariamente inviato da adynak
Hai sicuramente ragione quando dici che il problema della compatibilità è diverso da quello dell'ottimizzazione. L'esempio che ho citato è stato mal interpretato: volevo solo dire che se si sfrutta al meglio un'architettura povera grazie a un codice solido si possono ottenere prestazioni analoghe a quelle ottenute da un codice mediocre fatto girare su un'architettura più sostanziosa.
E questo non e' vero, perche' e' piu' semplice ottimizzare su un'architettura povera rispetto ad un'architettura complessa e ricca, semplicemente perche' si puo' fare meno sulla prima, quindi c'e' meno su cui lavorare.
Inoltre non ho detto che i programmatori non programmano più come un tempo perchè ci sono i computer più potenti, ma ho detto che a causa delle leggi di mercato (ovvero poco tempo) e di computer sempre più potenti c'è meno esigenza di ottimizzare perchè la "media" degli utenti ha un pc suffucientemente potente da far girare il gioco nel target di prestazioni stabilito.
In soldoni quello che voglio dire è che la frenesia con cui escono nuove tecnologie non ci permette di godere pienamente di quelle di cui disponiamo.
E' vero l'esatto contrario: la maggior parte del mercato non ha un PC in grado di far girare un qualunque gioco pensato per un'architettura di ultima generazione. Sapessi quanto la mia vita sarebbe piu' semplice se non dovessi supportare le GF4MX uscite piu' di 3 anni fa ;)
Originariamente inviato da fek
le texture sono ovviamente tutte calcolate con algoritmi e quindi sono abbastanza ripetitive (basta guardare il pavimento...). E' un bell'esperimento, ma rimane comunque tale.
D'accordo, sono tutte texture calcolate ma come qualità sono meglio del 99% di quelle che vediamo oggi.
Originariamente inviato da fek
Ancora non esistono algoritmi in grado di generare matematicamente texture perfettamente realistiche. Per la verita' e' impossibile che esista un tale algoritmo.
Mi ricordo che John Carmack qualche anno fa (prima di sviluppare il Q3 engine se non erro) parlava di compressione frattale delle texture.
Wing_Zero
23-04-2004, 17:18
Solo una cosa, : va ben il discorso che i programmatori sono stupidi e nn sanno ottimizzare i giochi e li siamo daccordo, ma e' un discorso generale che vlae per tutto e non c'entra con questo.
Comunque, ma che vi fa skifo avere gli shader 3.0 invece che 2.0 a bordo con una nuova sk video??? Certo se la 6800 ultra costa uno sproposito in + solo per gli shader, allora li uno si butta su ati(presupponendo che le prestazioni siano simili), altrimenti che problema c'e ad avere gli ps3.0 a bordo?
bah...
suppostino
23-04-2004, 17:21
Originariamente inviato da fek
Sapessi quanto la mia vita sarebbe piu' semplice se non dovessi supportare le GF4MX uscite piu' di 3 anni fa ;)
Se non ti piace la mia GF4mx e me ne vuoi regalare una entry level di nuova generazione a me va bene, altrementi ottimizza e silenzio :p
DA FEK:
Hmmm... nella maggior parte dei casi costa meno scriversi un motore 3d che faccia solo quello che serve alla propria applicazione e nulla di piu', piuttosto che prendere un motore gia' fatto e imparare ad usarlo e adattarlo alle proprie esigenze (magari con limitazioni). Poi una soluzione generica e' per forza di cose meno efficiente.
Questa è una gran cavolata.
Una volta introdotto uno standard, migliaia di studi in merito (ad es. le comprovate teorie di Mandelbrot) dimostrano che la standardizzazione dei processi produttivi con la conseguente concentrazione di risorse sull'effettiva applicazione di tali processi, ha come unico risultato la diminuzione delle variabili nell'ideale equazione che descrive la casuale possibilità di errore in un progetto.
Ovvero, tradotto in termini pratici, l'esatto opposto di quello che hai detto in termini di capacità e qualità produttiva: una volta prodotto un motore standard, magari risultato di un consorzio di case produttrici, è più produttivamente efficace imparare ad usare quello e basarsi sulle possibilità che quello offre.
Logicamente, quando poi il motore non si dimostra più all'altezza delle tecnologie lo si aggiorna e si invita i programmatori ad aggiornarsi; e quando il motore non va incontro alle esigenze di un particolare gioco, ci si fa carico delle leggere modifiche da fare, ben consci che così facendo si diminuisce l'effettiva fruibilità teorica finale del progetto.
E questo è un discorso oggettivo, scientificamente provato ed incontrovertibile.
Quando si pensa ad un sistema di produzione (qualsiasi tipo di produzione, da quella economica a quella di energia in un sistema di forze) bisogna ricordarsi che il RUMORE (in parole profane l'errore) è dietro l'angolo e non sempre lo si può prevedere, per la sua fondamentale natura caotica.
E' bene ricordarsi sempre della cara vecchia matematica, quando si tenta di descrivere il mondo. Perchè anche la matematica può farlo, ed in modo sicuramente più preciso di quattro chiacchiere buttate là.
Saluti,
Claudio
www.pcoverclock.it
^TiGeRShArK^
23-04-2004, 17:42
appunto:
COMPRESSIONE FRATTALE delle texture, non texture frattali...
in pratica penso intendesse delle tecniche di compressione delle texture basate sui frattali.
Non so se qualcuno di voi ricorda fractal imager, un programmino di compressione x le immagini basato sui frattali.
ai tempi dava dei buoni risultati e penso ke carmack si riferiva a qualcosa di simile....
Raga ma ci rendiamo conto? stiamo parlando di schede video da 600€ che fanno la differenza dalle altre solo per il gioco, e per di più chissà quando verranno sfruttate! Che importanza ha se la 6800 avrà i ps3.0, se quando questi verranno sfruttati la 6800 sarà ormai vecchia? con 600€ ci si può comprare una scheda video medio/alta oggi... e una nuova quando quella di oggi sarà vecchia e lenta...
rikordatevi ke siamo solo agli nizi con farcry.
date tempo di sfruttare bene gli shader 2.0 ke poi anke quelli basteranno.
Painkiller è stato fatto ankora kon le DX8.1 e non ha niente da invidiare rispetto alle 9.
a vederlo pensavo ke fossero le dx9 e invece mi soono cadute le braccia appena ho visto ke sono le 8.1
le 9 sono abbastanza sufficienti x far emergere gioki spettacolari..il resto avanza.
non vuol dire ke farcry è il massimo ke si puo' fare... no no...è solo l'inzio...un riskaldamento a quello ke verrà dopo. tutto il resto è business
Kralizek
23-04-2004, 18:35
ritornando al motore grafico standard...
perchè Epic ed ID dovrebbero mettersi d'accordo per un motore grafico standard?
se volevano risparmiare fatica perchè anzicche riscrivere ogni volta un motore grafico non usavano uno vecchio?
Per superare l'avversario? O perchè aveva voglia di buttare soldi in R&D??
un altro esempio? la blizzard usa un linguaggio proprio per sviluppare i propri giochi (leggasi Warcraft III, Diablo 2, Starcraft:Ghost e World of Warcraft)... altro che C e C++... semplicemente perchè non conviene usare questi due linguaggi.
Poi... pensa se il motore standard fosse quello di NWN... tutto il mercato mondiale che ha comprato una ATI non potrebbe utilizzare questo motore => nessun gioco. (lo so questo è un discorso estremista)
Tutto questo per dire che il motore grafico standard non è una buona soluzione...
Originariamente inviato da araknis
Questa è una gran cavolata.
Sorry? :D
Immagino che tu abbia lavorato su qualche titolo 3d pubblicato per poter affermare con questa sicurezza che ho scritto una gran cavolata...
Originariamente inviato da MaBru
D'accordo, sono tutte texture calcolate ma come qualità sono meglio del 99% di quelle che vediamo oggi.
Oddio, conosco un paio di artisti che sanno produrre texture migliori ;)
Originariamente inviato da MaBru
Mi ricordo che John Carmack qualche anno fa (prima di sviluppare il Q3 engine se non erro) parlava di compressione frattale delle texture.
Si', questo e' un discorso diverso: esistono metodi di compressioni delle immagini che si basano sulla teoria dei frattali. Tu parti da un'immagine disegnata da qualcuno e cerchi di comprimerla il piu' possibile. In quella demo si fa il processo inverso: si cercano delle formule matematiche che producano le texture. Intendiamoci, e' un bell'esperimento e il futuro si spingera' molto verso questo tipo di generazione in molti ambiti, ma al momento, se vogliamo texture di qualita', ci si deve affidare al lavoro degli artisti che le disegnino.
Originariamente inviato da suppostino
Se non ti piace la mia GF4mx e me ne vuoi regalare una entry level di nuova generazione a me va bene, altrementi ottimizza e silenzio :p
Ok, torno ad ottimizzare :p
DevilsAdvocate
23-04-2004, 19:01
Ehm..... se l'unico motore standard fosse quello di NWN,
la ati alzerebbe di piu' le natiche e i suoi driver verrebbero ottimizzati (direi anche pesantemente) per quel motore...... avere 600 engine diversi significa semplicemente moltiplicare gli sforzi dei programmatori di drivers coi risultati che spesso vediamo.
Originariamente inviato da fek
ma al momento, se vogliamo texture di qualita', ci si deve affidare al lavoro degli artisti che le disegnino.
Francesco,
parlando di texture e della loro qualità, quanto pensi sia lontano l'uso del filtraggio cubico delle texture in real-time? Voglio dire, bisogna aspettare il supporto hardware o si può già implementare via pixel shader?
Mi sembra che una delle feature dell'NV40 di cui si parla poco è il FP16 texture filtering and blending. Che ne pensi di questa caratteristica?
Originariamente inviato da MaBru
Francesco,
parlando di texture e della loro qualità, quanto pensi sia lontano l'uso del filtraggio cubico delle texture in real-time? Voglio dire, bisogna aspettare il supporto hardware o si può già implementare via pixel shader?
Si', si puo' fare via pixel shader... non ho mai provato ma a occhio e' circa 2 o 3 volte piu' lento.
Mi sembra che una delle feature dell'NV40 di cui si parla poco è il FP16 texture filtering and blending. Che ne pensi di questa caratteristica?
Che non vedo l'ora di avere un NV40 fra le mani :)
Originariamente inviato da fek
Sapessi quanto la mia vita sarebbe piu' semplice se non dovessi supportare le GF4MX uscite piu' di 3 anni fa ;)
Infatti gli ultimi giochi non partono sulle GF4MX, richiedono schede che gestiscano almeno le DirectX 8.1 via Hardware ;)
Originariamente inviato da LkMsWb
Infatti gli ultimi giochi non partono sulle GF4MX, richiedono schede che gestiscano almeno le DirectX 8.1 via Hardware ;)
a parte il 3dmark, mi sembra girino tutti i giochi (ovviamente non con la stessa qualita'/velocita') compreso ut2004 farcry e painkiller...
Beh, ho la possibilità di lavorare su un computer con quella scheda enon ci partono Kotor (Star Wars: Knights of the old republic), Need for Speed Underground e altri. Poi un mio amico ce l'ha e Farcry non gli gira (chiaramente tutti gli altri requisiti sono coperti!).
Per UT2004 non lo so.
Ciao!
Originariamente inviato da LkMsWb
Beh, ho la possibilità di lavorare su un computer con quella scheda enon ci partono Kotor (Star Wars: Knights of the old republic), Need for Speed Underground e altri. Poi un mio amico ce l'ha e Farcry non gli gira (chiaramente tutti gli altri requisiti sono coperti!).
Per UT2004 non lo so.
Ciao!
kotor non lo so (non e' il mio genere!) ma need for speed funziona anche sulla mia vecchia geforce2mx (anche se non si possono attivare tutti gli effetti come blur ecc.) e farcry gira benone su un xp 1800+ 512Mb e geffo 4mx 440, e c'e' una discussione nella sezione giochi in cui si parlava di come girava bene farcry anche con una geforce2...
Per gli altri giochi che ho citato (ut2004 e painkiller oltre ovviamente a farcry) li ho provati sulla geffo 4mx e ti assicuro che funzionano!
Ciao!
Si, per NFSU mi sono sbagliato, ho riletto i requisiti :D solo che adesso i titoli esatti non me li ricordo bene (e non posso provarli, io ho una 9700Pro). Però sono certo di aver lettoche alcuni giochi funzionavano su GeForce 2 ma non su GeForce 4 MX.
Poi non so...
Scusate ma urge un OT un secondo solo: ma la finite di dire che NWN gira male sulle Ati??? Questo luogo comune chiunque l'abbia inventato e' FASULLO!!! Io ho una 8500 e gira perfettamente, con shiny waters e tutto al massimo... ma come vi salta in mente di dire che gira male? Mah. Era solo per chiarire :) non ce l'ho con nessuno. Saluti a tutti!
Sawato Onizuka
23-04-2004, 23:37
Originariamente inviato da GokuSSJ
Scusate ma urge un OT un secondo solo: ma la finite di dire che NWN gira male sulle Ati??? Questo luogo comune chiunque l'abbia inventato e' FASULLO!!! Io ho una 8500 e gira perfettamente, con shiny waters e tutto al massimo... ma come vi salta in mente di dire che gira male? Mah. Era solo per chiarire :) non ce l'ho con nessuno. Saluti a tutti!
ti dico che una 8500 ci ho giocato fino all'avvento dei 3.9 poi per format e altri motivi (anche successivo cambio VGA) nn so se la situazione è migliorata sta di fatto che all'inizio era un po' lentino ok? :)
zerothehero
23-04-2004, 23:53
io rimango della mia idea che kruger (o come si chiama) è un elegante esercizio di programmazione ma è inutilizzabile per programmare ora se sul mio p4 2800 1giga di ram e 4200 scatta (ed è l'unico gioco che mi scatta painkiller, ut2004, morrowind e tutti gli altri girano bene...pure far cry scatticchia ma non quanto questo)...quindi fare il discorso di ottimizzazione in questo gioco è parziale...è ottimizzato solo nello spazio non nelle prestazioni...tanto che se avesse delle texture non generate dal processore ma "disegnate" (ma quanto sono tecnico ^_^) andrebbe pure su un pentium 2...vedo che persone molto + competenti di me la pensano allo stesso modo..
DeMonViTo
24-04-2004, 00:19
Sulla Geforce 4mx non gira prince of persia... sempre se no nhanno fatto una patch :)
bye
DeMonViTo
24-04-2004, 00:20
Aggiungo che neanche Splinter Cell Pandora Tomorrow... funziona....
ahahahah w la geforce.... (mentre con ati va' pure sulla "ati radeon" (la prima radeon uscita.. pagata un milione... DIO GRANDE DEMON :D ) eh.. poi dicono che ati lavora male :)
Comprarsi una GPU da ben oltre 350€ è da persone particolarmente ricche o fanatiche di tecnologia. :)
Voglio dire...si sa...le schede video su PC non vengono quasi mai sfruttate davvero...li sviluppatori non hanno ne la voglia (si sono palesemente "impigriti") e ne il tempo (ottimizzare porta via parecchi mesi...e supportare nell'immediato il nuovo hardware del PC è qualcosa di proibitivo...oltre che economicamente poco vantaggioso).
Poi questa continua rincorsa GPU-->DirectX-->Giochi è diventata assolutamente insostenibile...tanto che già da diversi anni ho capito che per non farsi prendere per il culetto è bene puntare sulla scheda video dal miglior rapporto qualità/prezzo (e magari spingerla un pò con l'overclock :D)...e tenersela per almeno 2 annetti...anche perchè la maggior parte delle features delle GPU di fascia alta verranno sfruttate massicciamente nei giochi PC soltanto quando verranno "traghettate" anche nelle GPU di fascia media o addirittura medio/bassa. ;)
Comunque ripeto...se uno ha soldi da "buttare"...allora avrà tutta la stima di Nvidia e Ati...oltre a sentirsi realizzato nel sapere di avere il PC "all'ultimo grido" (come se fosse chissà quale cosa importantissima della propria vita).
cdimauro
24-04-2004, 07:42
Originariamente inviato da fek
Non cambierebbe molto, il problema e' negli algoritmi, non nella quantita' di memoria usata :)
Ancora non esistono algoritmi in grado di generare matematicamente texture perfettamente realistiche. Per la verita' e' impossibile che esista un tale algoritmo.
Mi sembra che le funzioni di Perlin generino delle texture che riproducano piuttosto bene legni, marmi, ecc. E da implementare sono anche molto semplici.
Originariamente inviato da fek
Oddio, conosco un paio di artisti che sanno produrre texture migliori ;)
Si', questo e' un discorso diverso: esistono metodi di compressioni delle immagini che si basano sulla teoria dei frattali. Tu parti da un'immagine disegnata da qualcuno e cerchi di comprimerla il piu' possibile. In quella demo si fa il processo inverso: si cercano delle formule matematiche che producano le texture. Intendiamoci, e' un bell'esperimento e il futuro si spingera' molto verso questo tipo di generazione in molti ambiti, ma al momento, se vogliamo texture di qualita', ci si deve affidare al lavoro degli artisti che le disegnino.
Ok, torno ad ottimizzare :p
Ciao fek,
c'è una cosa che non capisco: nel caso che una texture venga compressa con algoritmo frattale, il risultato dovrebbe essere una formula matematica (un po' come quando si salva una bitmap in un formato vettoriale), giusto?
A sua volta, in fase di riproduzione, questa formula matematica dovrà essere interpretata ed eseguita allo scopo di fornire allo spettatore la texture iniziale.
Quindi, SE questo ragionamento è corretto, anche in un gioco che utilizzi le texture compresse tramite frattali c'è bisogno di un hardware capace di decomprimere queste texture (così come per il gioco di cui si parlava sopra, quello da 100k, bisogna avere un hardware in grado di "decomprimere", o meglio eseguire, le formule matematiche presenti negli shader).
E' corretto questo ragionamento?
Un'ultima cosa: non sono sicuro di capire che differenza passa tra una texture frattale e una texture compressa con l'aiuto dei frattali... potresti chiarirmi le idee con qualche esempio?
Ciao e grazie! :)
Cmq tralasciando il fatto che alcuni hanno detto che praticamente con i Ps 2.0 si riesce a fare praticamnete tutto e' il lato marketing che ne potrebbe risentire!!! Avere la dicitura "compatibile pixel shader 3.0" sulla scatola potrebbe far vendere un pacco di schede Nvidia in piu'!!! Spero che ati calcoli anche questo!!
cdimauro
25-04-2004, 07:39
Originariamente inviato da shodan
Ciao fek,
Non sono fek: spero che non t'offenda se cerco di risponderti anch'io. ;)
c'è una cosa che non capisco: nel caso che una texture venga compressa con algoritmo frattale, il risultato dovrebbe essere una formula matematica (un po' come quando si salva una bitmap in un formato vettoriale), giusto?
Esattamente.
A sua volta, in fase di riproduzione, questa formula matematica dovrà essere interpretata ed eseguita allo scopo di fornire allo spettatore la texture iniziale.
Più che interpretata, la formula dovrebbe essere già "compilata" per essere eseguita direttamente dai Pixel Shader. ;)
Quindi, SE questo ragionamento è corretto, anche in un gioco che utilizzi le texture compresse tramite frattali c'è bisogno di un hardware capace di decomprimere queste texture (così come per il gioco di cui si parlava sopra, quello da 100k, bisogna avere un hardware in grado di "decomprimere", o meglio eseguire, le formule matematiche presenti negli shader).
E' corretto questo ragionamento?
In teoria sì, ma bisogna mettersi d'accordo sul significato del termine compressione. Se per te il fatto di avere ricavato delle formule matematiche da una texture significa già "compressione", la GPU avrà ben poco lavoro da fare, perché la "texture" sarà già presente sotto forma di istruzioni PS, quindi non sarà necessaria alcuna "decompressione", perché la texture verrà generata al volo, al momento del bisogno.
Se, invece, le formule matematiche vengono a loro volta compresse con qualche algoritmo per risparmiare spazio, allora è chiaro che prima di essere utilizzate dovranno a loro volta essere decompresse, e rese in forma "digeribile" dalla GPU (leggi: convertite in forma di istruzioni PS).
Un'ultima cosa: non sono sicuro di capire che differenza passa tra una texture frattale e una texture compressa con l'aiuto dei frattali... potresti chiarirmi le idee con qualche esempio?
Ciao e grazie! :)
Un po' ambigua come domanda: provo a darti una risposta su quel che penso di aver capito. ;) Una texture "frattale", per come ne abbiamo parlato finora, diciamo che rappresenta una funzione che serve a riprodurre una texture "al volo", tramite semplici calcoli. Se questo procedimento lo intendiamo come "compressione" della texture originale, allora potremmo già parlare di texture compressa con l'aiuto dei frattali. Il problema qui è cercare di capire l'oggetto della discussione: a livello logico, fra una texture "frattale" e una texture compressa con l'aiuto dei frattali non dovrebbe esserci alcuna differenza, se alla fine il risultato fosse comunque una funzione che permetterebbe di riprodurre i dati di una texture.
Deltaweb73
25-04-2004, 20:12
Io mi incazzo veramente quando leggo i commenti della gente che dall'alto del loro podio criticando il fatto che "chi potrà permettersi una 6800ultra butta i soldi al cesso " si lascia andare ai propri commenti senza molto senso.
Ho veramente tanta paura.. Qui se una persona anche solo prova a scrivere " caspita che mostro.. mi piacerebbe proprio prenderla " viene :
a) Deriso.. Tanto c'è l'altra scheda che è migliore;
b) Preso x il culo bellamente con emoticons vari;
c) Etichettato come pazzo, fanatico o figlio di papà.
Magari su questo forum esistono ancora degli appassionati di hardware che col sudore del proprio lavoro, anche solo per soddisfazione personale, esprimendo un desiderio verso "qualcosa di nuovo" anche solo guardando il video dell'unreal engine3 pensano che gli shader 3.0 "potrebbero" essere la strada del futuro..
Speriamo ce ne siano ancora in giro, altrimenti che tristezza ragazzi. Qui si torna alla diatriba Commodore 64 Vs Spectrum..
Mah :)
Deltaweb73
25-04-2004, 20:18
Addendum..
E che poi magari, sul mercatino dei componenti, in un futuro prossimo appena vedono "quel cesso" in vendita a 200 euro in meno, rompono cosi' tanto i maroni ai propri genitori ( ehssì perchè non si guadagnano ancora la pagnotta ) che alla fine, la prendono usata e fanno i grossi con la signature e lo score al 3dmark 200xxx
*sospiro*
Scusate lo sfogo, ma come diceva anche Dark Scheider nel thread riguardante le accuse di cheat, qui si guarda oramai SOLO ai fotogrammi per secondo...
P.S.
Per favore, non rispondetemi dicendomi che stò "ingrandendo" il problema, se leggete un pò in giro, la media dei messaggi è solo di critica verso questo o quello...
ziosclero :)
kikkobna
26-04-2004, 01:21
Originariamente inviato da JoJo
Volete vedere un gioco ben programmato e che sfrutta l'hardware? :D
Queste screenshot sono presi da un gioco di 96Kb comprensivo di musica e effetti sonori!! :D :D :D
Qua lo potete scaricare e provare http://kk.kema.at/files/kkrieger-beta.zip !!!!
CIAO! :D
sono rimasto veramente impressionato da sto gioco anche se va a scatti con la mia config. !!!!! ma 96Kb è incredibile ...... per me c'e' qualche trucchetto
:confused: :confused:
Deltaweb73
26-04-2004, 01:34
Non c'è nessun trucchetto.
Khaos, uno dei coder dei Farbrausch ( gruppo nella scena demo ) è uno dei migliori.
Vai a guardarti anche "the product", loro demo in soli 64kb.
Alla fine, leggiti i commenti degli stessi farbrausch e la quantità di dati che sono riusciti a comprimere.
Nei "giochi" oggigiorno spesso non vediamo le ns. schede video spremute a dovere, ma basta guardarsi un pò in giro sulla scena demo e troverete delle realizzazioni veramente meravigliose.
cdimauro
26-04-2004, 06:56
Per quanto riguarda i cheat non concordo assolutamente con quanto detto: i test vanno fatti nelle MEDESIME condizioni e devono dare gli STESSI risultati. Nel momento in cui qualcuno pastrocchia coi driver per far aumentare le proprie prestazioni a discapito dell'output finale, mi spiace ma non sono disposto ad accettare questi "risultati". Perché sono delle prese in giro.
Un conto è il riordino delle istruzioni shader per farle andare meglio sulla propria architettura, ma le cui funzioni sono MATEMATICAMENTE EQUIVALENTI a quelle originali, tutt'altra cosa è l'introduzione di meccanismi atti a velocizzare l'esecuzione (tra l'altro di applicazioni selezionate) a discapito dell'output, ALTERANDO DI FATTO I RISULTATI.
Athlon 64 3000+
26-04-2004, 09:07
Originariamente inviato da cdimauro
Per quanto riguarda i cheat non concordo assolutamente con quanto detto: i test vanno fatti nelle MEDESIME condizioni e devono dare gli STESSI risultati. Nel momento in cui qualcuno pastrocchia coi driver per far aumentare le proprie prestazioni a discapito dell'output finale, mi spiace ma non sono disposto ad accettare questi "risultati". Perché sono delle prese in giro.
Un conto è il riordino delle istruzioni shader per farle andare meglio sulla propria architettura, ma le cui funzioni sono MATEMATICAMENTE EQUIVALENTI a quelle originali, tutt'altra cosa è l'introduzione di meccanismi atti a velocizzare l'esecuzione (tra l'altro di applicazioni selezionate) a discapito dell'output, ALTERANDO DI FATTO I RISULTATI.
Concordo.
Originariamente inviato da cdimauro
Non sono fek: spero che non t'offenda se cerco di risponderti anch'io. ;)
Esattamente.
Più che interpretata, la formula dovrebbe essere già "compilata" per essere eseguita direttamente dai Pixel Shader. ;)
In teoria sì, ma bisogna mettersi d'accordo sul significato del termine compressione. Se per te il fatto di avere ricavato delle formule matematiche da una texture significa già "compressione", la GPU avrà ben poco lavoro da fare, perché la "texture" sarà già presente sotto forma di istruzioni PS, quindi non sarà necessaria alcuna "decompressione", perché la texture verrà generata al volo, al momento del bisogno.
Se, invece, le formule matematiche vengono a loro volta compresse con qualche algoritmo per risparmiare spazio, allora è chiaro che prima di essere utilizzate dovranno a loro volta essere decompresse, e rese in forma "digeribile" dalla GPU (leggi: convertite in forma di istruzioni PS).
Un po' ambigua come domanda: provo a darti una risposta su quel che penso di aver capito. ;) Una texture "frattale", per come ne abbiamo parlato finora, diciamo che rappresenta una funzione che serve a riprodurre una texture "al volo", tramite semplici calcoli. Se questo procedimento lo intendiamo come "compressione" della texture originale, allora potremmo già parlare di texture compressa con l'aiuto dei frattali. Il problema qui è cercare di capire l'oggetto della discussione: a livello logico, fra una texture "frattale" e una texture compressa con l'aiuto dei frattali non dovrebbe esserci alcuna differenza, se alla fine il risultato fosse comunque una funzione che permetterebbe di riprodurre i dati di una texture.
Ciao cdmauro,
quando parlavo di "compressione", in effetti mi riferivo alla creazione di una formula matematica che potesse servire per ricreare una texture originale presa come modello.
Per il discorso della differenza fra texture frattali e texture compresse in modo frattale, ho posto questa domanda perchè prima se ne era parlato (o per lo meno mi è sembrato se ne parlasse) come due cose simili ma non identiche (per lo meno a livello di concetto)... però a rigor di logica mi sembra che le cose stiano così come mi hai appena illustrato. :)
Grazie mille per le spiegazioni. ;)
Originariamente inviato da cdimauro
Per quanto riguarda i cheat non concordo assolutamente con quanto detto: i test vanno fatti nelle MEDESIME condizioni e devono dare gli STESSI risultati. Nel momento in cui qualcuno pastrocchia coi driver per far aumentare le proprie prestazioni a discapito dell'output finale, mi spiace ma non sono disposto ad accettare questi "risultati". Perché sono delle prese in giro.
Un conto è il riordino delle istruzioni shader per farle andare meglio sulla propria architettura, ma le cui funzioni sono MATEMATICAMENTE EQUIVALENTI a quelle originali, tutt'altra cosa è l'introduzione di meccanismi atti a velocizzare l'esecuzione (tra l'altro di applicazioni selezionate) a discapito dell'output, ALTERANDO DI FATTO I RISULTATI.
Concordo anche io... e mi permetto di aggiungere che, sebbene come dice cdmauro il riordino delle istruzioni shader sia tutto sommato una cosa legittima, questa tecnica spesso è stata fatta (fino ad oggi) principalmente sui benchmark, mentre per i giochi le cose sono andare più al rilento.
Ora forse le cose stanno migliorando (il riordinatore dinamico di shader incluso nei ForceWare funziona discretamente bene, aumentando in modo considerevole le prestazioni della scheda).
Tra l'altro ormai non ha più senza accusare una casa piuttosto che l'altra... i "cheat" ci sono sempre stati e sempre ci saranno! ;)
CIAO! :)
Originariamente inviato da cdimauro
Mi sembra che le funzioni di Perlin generino delle texture che riproducano piuttosto bene legni, marmi, ecc. E da implementare sono anche molto semplici.
Hai fatto un bell'esempio: marmo e legno sono piuttosto semplici da riprodurre con funzioni matematiche tipo il perlin noise. In questo caso e' quasi meglio scrivere un "generatore di legni" e poi darlo in pasto ad un'artista che giochi con i parametri. Poi con qualche trucchetto si puo' produrre un'infinita' di legni diversi, questa e' la miglior applicazione per le texture parametriche.
Ma una texture, ad esempio, che riproduca dei mattoni?
Originariamente inviato da shodan
Tra l'altro ormai non ha più senza accusare una casa piuttosto che l'altra... i "cheat" ci sono sempre stati e sempre ci saranno! ;)
CIAO! :)
Ed io sono anche anche contento che ci siano, perche' cosi' i benchmark smettono di avere valore per l'utente, visto che gia' hanno poco valore in se'.
Scusate una domanda: ma la Ati a quanto ho letto nelle nuove schede supportera' 'solo' il 2.0 giusto o sbagliato? Se cosi' fosse... beh che dire, se ne vedranno delle belle, intanto spero che le prossime schede medie di nVidia e Ati stiano sotto i 250 Euro e che naturalmente vadano piu' o meno come le massime di ora. Sogno ;)
Originariamente inviato da fek
Ed io sono anche anche contento che ci siano, perche' cosi' i benchmark smettono di avere valore per l'utente, visto che gia' hanno poco valore in se'.
Si, su questo sono d'accordo... però a livello di immagine (e di morale) barare così non è molto produttivo... :)
Comunque, se è l'unico modo per far capire a tutti che non basta un singolo bench per valutare una scheda video, conviene sopportare questa situazione.
CIAO! :)
dragunov
27-04-2004, 20:24
Adesso non sono sfruttate a pieno,ma io credo nella nuova versione,ne è la prova farcry sulla 6800!
cdimauro
28-04-2004, 07:39
Originariamente inviato da fek
Hai fatto un bell'esempio: marmo e legno sono piuttosto semplici da riprodurre con funzioni matematiche tipo il perlin noise. In questo caso e' quasi meglio scrivere un "generatore di legni" e poi darlo in pasto ad un'artista che giochi con i parametri. Poi con qualche trucchetto si puo' produrre un'infinita' di legni diversi, questa e' la miglior applicazione per le texture parametriche.
Ma una texture, ad esempio, che riproduca dei mattoni?
Probabilmente si deve ancora inventare. :) Magari il buon "vecchio" ;) Ken, tirerà fuori qualche altra sua funzione per accontentarti.
Per adesso concordo con te: il lavoro fatto dagli artisti per creare delle texture "realistiche" è insostituibile.
x Shodan: la ricompilazione dinamica mi sta bene, però, soltanto se viene impiegata in TUTTI i casi, a prescindere dall'applicativo/gioco. Non considero accettabile né il suo utilizzo selettivo né l'intera sostituzione di shader con altri presenti nei driver.
Originariamente inviato da cdimauro
x Shodan: la ricompilazione dinamica mi sta bene, però, soltanto se viene impiegata in TUTTI i casi, a prescindere dall'applicativo/gioco. Non considero accettabile né il suo utilizzo selettivo né l'intera sostituzione di shader con altri presenti nei driver.
Si, sono assolutamente d'accordo. :)
Originariamente inviato da Kralizek
ritornando al motore grafico standard...
perchè Epic ed ID dovrebbero mettersi d'accordo per un motore grafico standard?
se volevano risparmiare fatica perchè anzicche riscrivere ogni volta un motore grafico non usavano uno vecchio?
Per superare l'avversario? O perchè aveva voglia di buttare soldi in R&D??
un altro esempio? la blizzard usa un linguaggio proprio per sviluppare i propri giochi (leggasi Warcraft III, Diablo 2, Starcraft:Ghost e World of Warcraft)... altro che C e C++... semplicemente perchè non conviene usare questi due linguaggi.
Poi... pensa se il motore standard fosse quello di NWN... tutto il mercato mondiale che ha comprato una ATI non potrebbe utilizzare questo motore => nessun gioco. (lo so questo è un discorso estremista)
Tutto questo per dire che il motore grafico standard non è una buona soluzione...
Vedi, pensi in piccolo. Non deve essere un motore di un gioco a poi dover fare da fondamento agli altri. Ma piuttosto un CONSORZIO di varie software house che con 1/10 del personale ciascuna dedicato al R&D avrebbero la possibilità di tenere a propria disposizione un motore ottimo, plasmabile, riutilizzabile e sempre al passo coi tempi, poichè sempre in developing.
ti sembra davvero un discorso così strano? Allora perchè grandi case tipo AMD e IBM si saranno dedicate al CONSORIZIO Hypertransport? Perchè son oscemi o perchè ragionano in una logica puramente economica e scientifica e perchè hanno fior fiori di manager che hanno fior fiori di consulenti tecnici che gli suggeriscono cosa fare?
Gli investimenti nella definizione di un ostandard (pur parziale come può essere l'esempio che ho citato) sono i più redditizi, naturalmente, perchè:
- favorisce la diminuizione dei costi accessori e di post-produzione dovuti alla soluzione dei problemi di inter-operabilità, compatibilità e customer care, voci che contano nel bilancio...
- ottimizzazione dell'utilizzo dei fondi destinati alla ricerca, a parità di costo
- ottimizzazione del rendimento economico, a causa di due principali cofattori: non si pagano royalties all'interno del consorzio e soprattutto si ha a disposizione una possibilità di apertura di partnerships molto utili all'interno dell'infrastruttura del consorzio. E' importante "coltivare le amicizie"...
Originariamente inviato da fek
Sorry? :D
Immagino che tu abbia lavorato su qualche titolo 3d pubblicato per poter affermare con questa sicurezza che ho scritto una gran cavolata...
Scusa se invece di alzarmi al tuo livello di GRANDISSIMO programmatore mi diletto nel dimostrarti scientificamente che molto probabilmente NON hai ragione, quando distribuisci la tua benedizione.... :rolleyes:
ti dico che ci sono molti studi scientifici che applicano le leggi del determinismo caotico all'ambito economico, che, seppur senza concreti risultati applicabili, hanno comunque dimostrato l'esattezza della possibilità di descrivere con un sistema di equazioni una qualsiasi realtà derivante da una serie di variabili.
STOP, non lo dico io, ma la scienza. Quando avrai pubblicato sul Journal Of Scientific Mathematics o il Physics Digest un tuo articolo nel quale tenti di smontare questa tesi, allora ti crederò. fino ad allora mi affido a quello che lo studio scientifico mi dice, e io te l'ho riferito in parole semplicissime (e penso che tu stesso ne sia, almeno in parte, a conoscenza).
Saluti,
Claudio
cdimauro
29-04-2004, 22:35
La scienza dice molte cose, ma bisogna anche vedere se si arriva poi a dei risultati pragmatici o rimangono solamente fantasie.
Tanto per fare un paio di esempi: non ho ancora visto nessun sistema di equazioni che riesca a descrivere (e unificare) le quattro forze che dominano la fisica; e non ho visto neppure il polinomio generatore di numeri primi.
Eppure, sulla carta, dovrebbe essere possibile trovarli. Fammi un fischio quando ci riusciranno... :sofico:
Originariamente inviato da cdimauro
La scienza dice molte cose, ma bisogna anche vedere se si arriva poi a dei risultati pragmatici o rimangono solamente fantasie.
Tanto per fare un paio di esempi: non ho ancora visto nessun sistema di equazioni che riesca a descrivere (e unificare) le quattro forze che dominano la fisica; e non ho visto neppure il polinomio generatore di numeri primi.
Eppure, sulla carta, dovrebbe essere possibile trovarli. Fammi un fischio quando ci riusciranno... :sofico:
1 e' un numero primo
3 e' un numero primo
5 e' un numero primo
7 e' un numero primo.....
facile.. tutti i numeri dispari sono primi!
:D :D :D :D
Se vai avanti e vedi che il 9 non e' primo, controlla 11 e 13 (che sono primi) e quindi puoi considerare 9 come errore sperimentale!!! :D :D
Ciao
cdimauro
30-04-2004, 07:33
Quest'algoritmo l'hai trovato tu? Di nome fai Eratostene? :D
vBulletin® v3.6.4, Copyright ©2000-2026, Jelsoft Enterprises Ltd.