Torna indietro   Hardware Upgrade Forum > Componenti Hardware > Schede Video > Schede Video - Discussioni generali

iPhone 17 Pro: più di uno smartphone. È uno studio di produzione in formato tascabile
iPhone 17 Pro: più di uno smartphone. È uno studio di produzione in formato tascabile
C'è tanta sostanza nel nuovo smartphone della Mela dedicato ai creator digitali. Nuovo telaio in alluminio, sistema di raffreddamento vapor chamber e tre fotocamere da 48 megapixel: non è un semplice smartphone, ma uno studio di produzione digitale on-the-go
Intel Panther Lake: i processori per i notebook del 2026
Intel Panther Lake: i processori per i notebook del 2026
Panther Lake è il nome in codice della prossima generazione di processori Intel Core Ultra, che vedremo al debutto da inizio 2026 nei notebook e nei sistemi desktop più compatti. Nuovi core, nuove GPU e soprattutto una struttura a tile che vede per la prima volta l'utilizzo della tecnologia produttiva Intel 18A: tanta potenza in più, ma senza perdere in efficienza
Intel Xeon 6+: è tempo di Clearwater Forest
Intel Xeon 6+: è tempo di Clearwater Forest
Intel ha annunciato la prossima generazione di processori Xeon dotati di E-Core, quelli per la massima efficienza energetica e densità di elaborazione. Grazie al processo produttivo Intel 18A, i core passano a un massimo di 288 per ogni socket, con aumento della potenza di calcolo e dell'efficienza complessiva.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 31-03-2003, 15:07   #21
Puccio84
Registered User
 
Iscritto dal: Nov 2001
Città: Roma
Messaggi: 130
Ragazzi secondo me non conviene mai prendere le schede video "rivoluzionarie"(tnt,geforce1, 3, fx) ma le loro evoluzioni(tnt2, geforce 2, 4...), in quanto esse sono utilizzabili subito, hanno subito un supporto driver soddisfacente, le schede "rivoluzionarie" presentano spesso problemi di giovinezza che ti fanno rodere il fegato quando vedi che 400 € nn ti fanno giocare al tuo game preferito...
nn so se mi sono spiegato
Puccio84 è offline   Rispondi citando il messaggio o parte di esso
Old 31-03-2003, 15:34   #22
Milion
Bannato
 
Iscritto dal: Nov 2001
Messaggi: 333
Quote:
Originally posted by "yossarian"



Hai ragione. Infatti io non ho mai attaccato l'NV30 come progetto. La cosa più intelligente da fare era quella di far uscire la versione liscia dell'NV30 a ottobre (quando era già bella e pronta), dicendo "signori, non è il chip più veloce in assoluto ma presenta delle interessanti innovazioni sotto il profilo della qualità d'immagine, della programmabilità, ecc". Avrebbero rispettato i tempi di uscita, si sarebbe trattato di un prodotto

...
O al limite, se proprio non volevano rinunciare alla palma di chip più veloce del mercato, dovevano saltare a piedi pari questa generazione
A mio avviso gli errori commessi da nvidia non si sono limitati solo alla progettazione, bensi anche all'approccio al mercato (marketing).
Ok che del senno di poi ne sono piene le fosse, ma se l'arroganza non avesse avuto la meglio in questa vicenda (imho ovviamente) o avrebbero potuto far uscire il chip con le sue caratteristiche originarie come da te detto, ma dovendo in questo modo ammettere la "sconfitta", oppure avrebbero dovuto sin da subito accantonare nv30 e passare al successivo investendo nel ritardo che comunque hanno avuto per tirare fuori qualcosa di veramente vincente...o comunque in linea almeno con la concorrenza sia in termini di prestazione che di qualità.
Invece hanno proprio peccato di arroganza temo, anche nell'approccio con i propri clienti: il livello medio di informazione è ben diverso da quello che c'era ai tempi del tnt e uno degli errori più grandi che hanno fatto è, secondo me, non tenere conto di questo
Il mercato non è più così bhheeeeeeello come a quei tempi

Milio
Milion è offline   Rispondi citando il messaggio o parte di esso
Old 31-03-2003, 17:54   #23
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originally posted by "Milion"



O al limite, se proprio non volevano rinunciare alla palma di chip più veloce del mercato, dovevano saltare a piedi pari questa generazione
A mio avviso gli errori commessi da nvidia non si sono limitati solo alla progettazione, bensi anche all'approccio al mercato (marketing).
Ok che del senno di poi ne sono piene le fosse, ma se l'arroganza non avesse avuto la meglio in questa vicenda (imho ovviamente) o avrebbero potuto far uscire il chip con le sue caratteristiche originarie come da te detto, ma dovendo in questo modo ammettere la "sconfitta", oppure avrebbero dovuto sin da subito accantonare nv30 e passare al successivo investendo nel ritardo che comunque hanno avuto per tirare fuori qualcosa di veramente vincente...o comunque in linea almeno con la concorrenza sia in termini di prestazione che di qualità.
Invece hanno proprio peccato di arroganza temo, anche nell'approccio con i propri clienti: il livello medio di informazione è ben diverso da quello che c'era ai tempi del tnt e uno degli errori più grandi che hanno fatto è, secondo me, non tenere conto di questo
Il mercato non è più così bhheeeeeeello come a quei tempi

Milio
Purtroppo è vero che il non avere la palma di chip più veloce equivale ad una sconfitta. E' una mentalità sbagliata, che ha portato alla bocciatura di progetti validi come la VooDoo5 e, in parte, la G400 e la Radeon256. Quando si ha a che fare con prodotti le cui prestzioni sono ad altissimo livello, si dovrebbe cercare di andare oltre qualche fps in più (giocare a Q3 a 350 oppure a 280 fps non cambia di certo la vita). In questo hanno colpa i prduttori di HW in primo luogo, che hanno "forzato" il mercato in quel senso (nVIDIA e 3dfx davanti a tutti) e chi si basa sugli fps per orientare i propri acquisti. D'altro canto questa continua rincorsa alle prestazioni è servita per avere i "mostri" che ci sono attualmente in circolazione. Adesso però è arrivato il momento in cui è necessaria una pausa di riflessione e un cambio di rotta. La FX ha delle qualità che, a causa dei ripetuti tentativi di nVIDIA di riprendersi lo scettro delle prestazioni, sono stati completamente trascurate se non addirittura penalizzate (v. drivers che abbassano il numero di colori da 32 a 16 bit - attenzione non parlo dell'FP64 o FP128, ma proprio del numero di bit utilizzato per rappresentare ciascuno dei 3 colori RGB che per l'NV30 arriva a 32 bit, mentre per l'R300 si ferma a 24, pur avendo entrambe precisione FP128).
Abbandonare il progetto NV30, dopo averci investito tempo e denaro non era opportuno, soprattutto dopo il grande battage pubblicitario che aveva suscitato grande attesa tra gli appassionati. Sarebbe stato saggio, però, una volta resisi conto dei limiti fisici del chip, di abbandonare i tentativi di riottenere la leadership prestazionale con l'NV30 e di concentrarsi su un nuovo progetto che andasse oltre i limiti riscontrati. In parole povere, ormai l'NV30 era pronto ed era il caso di farlo uscire comunque (anche perchè retsa comunque un buon chip, molto veloce e con una, almeno teorica, ottima qualità d'immagine che, purtroppo, proprio per colpa dei tentativi fatti da nVIDIA, ancora non si è vista). Alimite avrebbero potuto presentarlo come un'anteprima del chip rivoluzionario promesso (che sarebbe potuto diventare l'NV35), facendo, in qualche maniers, l'opposto di quanto fatto da ATI che ha presentato prima la 9700 e poi la sua versione con bus dimezzato (la 9500, appunto). Forse in tal modo sarebbero riusciti ad evitare una serie di brutte figure che non si addicono ad una società leader nel proprio settore (se le può permettere Microsoft perchè è in regime di quasi monopolio) e sarebbero riusciti a sottrarre ad ATI alcune quote del mercato DX9 (se avessero fatto uscire la versione liscia a ottobre). Invece hanno fatto la cosa peggiore: il progetto iniziale prevedeva struttura 4x2, bus a 128 bit e ram DDR. Quando ci si è resi conto che le DDR non fornivano una banda sufficiente ad un chip a 0,13 che poteva raggiungere frequenze di 400 e oltre Mhz (primo errore di valutazione che ha fatto perdere del tempo, anche se non tantissimo), si è deciso di passare alle DDR2 (e cominciarono a circolare le prime voci di ram DDR2 abbinate all'NV30). In un secondo tempo si sono resi conto (stavolta dopo aver visto i primi risultati dell'R300) che la bandwidth fornita dalle DDR2, clockate a 400 Mhz, non solo non era sufficiente a pareggiare la banda ottenuta con il bus a 256 ma era fortemente penalizzante ad alta risoluzione e con impostazioni "quality". Il passo successivo è stato l'overclock e, consequenzialmente l'overvolt, fino al punto in cui sono riusciti a tirare chip e ram (da qui la quasi nulla overclockabilità delle FX5800 Ultra).
In realtà anche ATI, nelle fasi iniziali del progetto R300, aveva pensato di adottare il bus a 128, però con 8 pipelines. Ci si è accorti immediatamente che la bamdwidth era troppo penalizzante (con 8 pipe lo è ancora di più che con 4, soprattutto in previsione dell'impiego delle specifiche DX9) e si è passati subito al bus a 256, anche se si è portato avanti anche il progetto con bus a 128 (che era stato accantonato e poi ripreso - l'R350 con DDR2 e bus a 128, se uscirà, cosa che per me non ha senso, rappresenta in realtà l'evoluzione del progetto iniziale). P.s. l'R300 supporta le DD2, anche se non gli sono mai state abbinate.

Per quanto riguarda le linee di produzione che verranno mantenute, potete farvi un'idea andando a vedere quali sono le schede ATI attualmente in produzione (tra cui figurano già anche le 9800pro, le 9600 e le 9200, di cui è stata solo posticipata la produzione "in volumi"). In sintesi:
bus 256 - 8x1 DX9 0,15 micron 9800pro - 9700pro - 9800 - FireGL X1
bus 128 - 8x1 DX9 0,15 micron 9800pro (DDR2) - 9500 pro - FireGL Z1
bus 128 - 4x1 DX8.1 0,15 micron 9200pro - 9200 - 9000 pro
bus 256 (?) 4x1 DX9 0,13 micron 9600pro - 9600 (la serie 9600, in realtà, è niente di più di un esperimento in vista del prossimo progetto, cioè l'R400, che sarà a 0,13 e avrà DDR2 con bus a 256 bit (le pipelines potrebbero non essere 8x2 )
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 31-03-2003, 22:12   #24
Milion
Bannato
 
Iscritto dal: Nov 2001
Messaggi: 333
L'analisi è chiara ed effettivamente capisco le ragioni per cui secondo te sarebbe stato opportuno non abbandonare nv30. Condivido in questo caso la tua opinione riguardo alle mosse sbagliate fatte da nvidia che hanno sputtanato un chip che tutto sommato non sarebbe stato male.
Dico tutto sommato perchè questa qualità di immagine a cui hai accennato non si è ancora vista. Anzi a quanto sembra, e sempre se non è un problema legato ai drivers e ai tentativi di spremere performance da tutte le parti, sembrano peggiori rispetto persino al gf4
Tuttavia, proprio giudicando l'atteggiamento di nvidia e i tentativi di convincere che la palma del "chip più veloce" ce l'hanno ancora loro, rimango dell'opinione che avrebbero avuto meno danni considerando nv30 solo come un prototipo da non commercializzare in volumi.
Una azienda che sin dal tnt ha puntato tutto sulla velocità non può fare marcia indietro mandando all'aria anni e anni di strategie aggressive, specie se questa corsa esasperata alla performance è stata proprio lei ad inaugurarla, usando il "va più forte di una soluzione voodoo2 sli" che è diventata il sinonimo di prodotto d'elite (anche se oggi sempre più gente si rende conto della idiozia intrinseca in questo assunto )
Io penso che la scelta di far uscire comunque questo chip sia stata determinata soltanto dal tentativo di non far scappare i produttori di schede video che spingevano per un chip in grado di tenere il passo con r300...ed in questa ottica oggi sappiamo che non sarà nv30 che riuscirà in questo scopo Perciò tanto valeva non metterlo in produzione affatto...almeno sarebbero state soltanto illazioni quelle che criticavano nvidia

Insomma in definitiva nvidia si è messa nell'angolo da sola: da una parte un marketing che ha sempre cercato di convincere che "più veloce è meglio in ogni caso", e tale cosa non gli permetteva di far uscire un chip più lento del concorrente a pena di gravi perdite di immagine. Dall'altra la necessità comunque di tirare fuori un chip per non perdere i contratti con i costruttori; da qui la necessità di tirare fuori qualcosa ad ogni costo anche se questo qualcosa ha di fatto causato gravi perdite di immagine

Milio
Milion è offline   Rispondi citando il messaggio o parte di esso
Old 31-03-2003, 22:29   #25
DoomIII
Senior Member
 
Iscritto dal: May 2002
Messaggi: 830
be per essere onesti ci sarebbe da dire che siamo molto indietro come software... e sembrerebbe che sulle nuove schede il software vecchio giri meglio nel gioiello di casa Ati... per quanto riguarda software nuovo mi risulta, anche se non sono differenze enormi, che NV30 sia superiore.

Le fixed-function, il vecchio T&L di programmazione DX7 sono state dal NV20 in poi incluse per compatibilità poichè appunto altrimenti il software non sarebbe compatibile... e dalle DX8 si poteva programmare in 2 modi.. o continuando ad utilizzare le fixed-function o programmando i pixel/vertex shader... questo ha portato gli sviluppatori a vantare giochi sviluppati in DX8 quando in realtà venivano utilizzate le fixed-function e quindi di DX8(pixel&vertex shader) non c'era niente.
In pratica chi aveva una gef2 giocava... chi aveva una gef3 giocava con il software che 'girava' sul NV15 incluso per compatibilità. Certo ci sono ottimizzazione sull'antialiasing, frequenze più elevate ecc... ma tutti i circuiti di pixel/vertex shader non venivano toccati... la situazione poi è cambiata di poco con pixel/vertex shader che sono stati utilizzati in seguito da pochi titoli e solo marginalmente... poichè di vero software GPU oriented e pesantemente basato sui vertex/pixel shader c'è solo DoomIII che è ancora in arrivo... titolo che infatti su schede senza una vera GPU sarà solo guardabile ingiocabilmente mentre per gli altri titoli al massimo c'era qualche differenza qua e la, qualche effetto disattivato ecc....

Le innovazioni portate nelle DX9 e le capacità date dai nuovi chip sono potentissime ed importanti... ma a livello software si è ben lontani dallo sfruttarle. Inoltre all'epoca dell'uscita della Gef3 c'è stata una bella innovazione, ma all'epoca dissi in diversi posti che la Gef3 portava un innovazione per lo più inutilizzabile a causa dei limiti architetturali... limiti che sono stati appianati nella Gef4 che sarebbe una Gef3 sfruttabile appieno... in tal senso adesso la situazione è simile... delle nuove innovazioni su r300 o NV30 c'è solo la marginale possibilità di sfruttare qualcosa... d'altro canto hanno il pregio di portare queste novità... imporre lo standard e dare la possibilità agli sviluppatori di appoggiarvisi per le realizzazioni.
DoomIII è offline   Rispondi citando il messaggio o parte di esso
Old 01-04-2003, 01:53   #26
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originally posted by "Milion"

L'analisi è chiara ed effettivamente capisco le ragioni per cui secondo te sarebbe stato opportuno non abbandonare nv30. Condivido in questo caso la tua opinione riguardo alle mosse sbagliate fatte da nvidia che hanno sputtanato un chip che tutto sommato non sarebbe stato male.
Dico tutto sommato perchè questa qualità di immagine a cui hai accennato non si è ancora vista. Anzi a quanto sembra, e sempre se non è un problema legato ai drivers e ai tentativi di spremere performance da tutte le parti, sembrano peggiori rispetto persino al gf4

Milio
La FX ha un'ottima qualità d'immagine, come dimostrano i demo "Ogre" e "Dawn". Il fatto è che gli attuali drivers (bada bene, non il SW) non le rendono giustizia, privilegiando le prestazioni. L'NV30, per come è strutturato (4x2, con frequenze di funzionamento molto elevate), rende al meglio in determinate condizioni d'impiego che corrispondono ad una situazione di carico di lavoro intermedio. Mi spiego: rispetto all'R300, nell'effettuare il multitexturing, processa 2 textures per volta, contro 1 del chip ATI e, inoltre, lo fa ad una velocità che è circa il 50% superiore (500 contro 325 Mhz); però è in grado di operare solo su 4 pixels per volta contro gli 8 dell'R300. Questo vuol dire che, per processare 8 pixels, la FX è costretta a fare un'operazione 4+4. Immaginiamo di dover applicare 4 textures ad ogni pixel. Ogni TMU dell'R300 opera su un pixel, applicando una texture che viene stivata in un buffer all'interno del chip, quindi passa adoperare sulla seconda, poi sulla terza e, infine sulla quarta. Al termine dell'elaborazione, ogni TMU ha applicato 4 textures sul proprio pixel di competenza, processandone in totale 8 (totale 32 textures applicate). Le 2 TMU dell'NV30 applicano, ovviamente 2 textures in contemporanea su uno stesso pixel. L'elaborazione dell'NV30 richiede la metà dei passaggi dell'R300 (2 contro4), però sono stati processati solo 4 pixels (16 textures applicate). A questo punto, per entrambi i chip, le textures vengono inviate al frame buffer della ram video. Per arrivare a processari 4 pixels (e raggiungere l'R300, l'NV30 deve ripetere di nuovo il ciclo descritto. Il problema è nel calcolo dei tempi impiegati a compiere l'elaborazione interna al chip e di quelli necessari al trasferimento dei dati al frame buffer. Ovviamente l'elaborazione interna al chip è molto più rapida (tanto che si dice che vengono applicate 4 textures per single pass, ossia per ciclo di rendering; in realtà vediamo che le textures non vengono applicate contemporaneamente, altrimenti ogni pipeline dovrebbe avere, in questo caso, 4 TMU). Da questa diversa impostazione viene fuori che l'NV30 si avvantaggia, ovviamente quando si devono applicare 2 sole textures (che è in grado di applicare simultaneamente), oppure 4 o, al massimo 6; cioè in tutte quelle situazioni in cui la doppia TMU e la maggior frequenza di funzionamento compensano il fatto di dover effettuare di fatto due cicli per pareggiare il numero di pixels elaborati dall'R300 in una sola volta. All'aumentare della complessità dei calcoli aumenta la quantità di dati che transita attraverso il bus VPU-ram video; in questa situazione viene fuori il collo di bottiglia derivante da un bus di soli 16 Gb contro i 20 dell'R300 e, inoltre, l'elevata frequenza di funzionamento del chip, lungi dall'essere di aiuto, tende a squilibrare ulteriormente la situazione (si crea quello che in termini stradali si potrebbe definire un ingorgo). Ancora più svantaggiosa sarebbe stata la situazione se, al bus a 128, avessero unito un'architettura 8x1, come quella dell'R300 (si sarebbe raddoppiata la quantità di dati forzata a passare nel canale VPU-ram). Si vede così che, all'aumentare del numero n delle textures applicate (già per valori maggiori di 6 o 8), la capacità d'elaborazione dell'NV30 diminuisce in maniera molto più marcata di quanto non faccia quella dell'R300 e riesce a mantenere un margine di vantaggio, sempre più esiguo al crescere di n, solo grazie alla maggior frequenza di funzionamento. Si dà il caso che, demo tipo quelle viste per l'NV30, che utilizzano, per renderizzare i personaggi, un gran numero di poligoni, proprio nel rendring di scene con elevato numero di poligoni, sono caratterizzate dall'utilizzo di multitexturing a non più di 6 textures (4 nella maggior parte dei casi) per pixel, utilizzando effetti DX9 veri per scene meno complesse. Questo per rendere fluida l'elaborazione. L'effetto complessivo è comunque eccellente e rende l'idea delle potenzialità dell'NV30 in termini di qualità d'immagine. Purtroppo nei giochi o nei bench, non è possibile adattare il SW in modo da esaltare le caratteristiche dell'HW e questo ha spinto nVIDIA a "ottimizzare" i drivers per questa o quella applicazione, in linea di massima facendo in modo di alleggerire l'elaborazione a scapito della qualità d'immagine. L'NV30, a causa del bus a 128 bit e della scelta fatta di rappresentare i colori e il canale alfa a 32 bit (anzichè a 24 come prescrivevano le specifiche DX9) ha reso l'NV30 un chip difficile da gestire, per cui si devono trovare le giuste alchimie tra HW e SW per poter coniugare prestazioni e qualità. Diciamo che ha un range di utilizzo ottimale ristretto rispetto all'R300 (se mi passate un paragone velico, l'R300 è come Alinghi, che riesce ad andare forte in tutte le condizioni, l'NV30 è come New Zealand che, solo con le giuste condizioni di vento e di mare è più veloce dell'avversaria)
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 01-04-2003, 02:43   #27
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originally posted by "Milion"

Tuttavia, proprio giudicando l'atteggiamento di nvidia e i tentativi di convincere che la palma del "chip più veloce" ce l'hanno ancora loro, rimango dell'opinione che avrebbero avuto meno danni considerando nv30 solo come un prototipo da non commercializzare in volumi.
Una azienda che sin dal tnt ha puntato tutto sulla velocità non può fare marcia indietro mandando all'aria anni e anni di strategie aggressive, specie se questa corsa esasperata alla performance è stata proprio lei ad inaugurarla, usando il "va più forte di una soluzione voodoo2 sli" che è diventata il sinonimo di prodotto d'elite (anche se oggi sempre più gente si rende conto della idiozia intrinseca in questo assunto )
Io penso che la scelta di far uscire comunque questo chip sia stata determinata soltanto dal tentativo di non far scappare i produttori di schede video che spingevano per un chip in grado di tenere il passo con r300...ed in questa ottica oggi sappiamo che non sarà nv30 che riuscirà in questo scopo Perciò tanto valeva non metterlo in produzione affatto...almeno sarebbero state soltanto illazioni quelle che criticavano nvidia

Insomma in definitiva nvidia si è messa nell'angolo da sola: da una parte un marketing che ha sempre cercato di convincere che "più veloce è meglio in ogni caso", e tale cosa non gli permetteva di far uscire un chip più lento del concorrente a pena di gravi perdite di immagine. Dall'altra la necessità comunque di tirare fuori un chip per non perdere i contratti con i costruttori; da qui la necessità di tirare fuori qualcosa ad ogni costo anche se questo qualcosa ha di fatto causato gravi perdite di immagine

Milio
In realtà la prima mossa vincente di ATI è stata quella di cominciare a vendere chip a terzi. In tal modo non solo ha potuto competere con nVIDIA sul terreno delle prestazioni (cosa che aveva iniziato a fare già con l'R100 opposto all'NV15), ma ha iniziato a portare dalla sua parte società partner di nVIDIA, erodendo a quest'ultima quote di mercato non solo tramite la competizione diretta.
La seconda mossa vincente è stata quella di iniziare a produrre chip ottimi anche sotto il profilo prestazionale (la qualità era già ad alti livelli, senza tener conto che, in passato, ATI aveva puntato tutto sulla multimedialità e, sotto questo aspetto, la 8500 DV è ancora insuperata). Però questo non era sufficiente, perchè, comunque, nVIDIA, continuava a non perdere colpi, nonostante i duri attacchi delle rivali.
La terza mossa vincente (quella che l'ha posta in una posizione di vantaggio) non è stata fatta da ATI, ma è stato l'autogoal di nVIDIA nella gestione dell'affare NV30.
Come hai detto, giustamente, una delle paure di nVIDIA è stata quella di perdere altri partners importanti (Creative e MSI in primo luogo, che già sembrano nutrire diversi dubbi). Inoltre si sono trovati con le spalle al muro, poichè il chip era stato annunciato da tempo, troppo pubblicizzato, con fughe di notizie da tutte le parti. La stessa nVIDIA è stata costretta a diffondere le specifiche (anche se abbiamo visto che è stata piuttosto ambigua nel farlo) e i primi bench (in cui l'FX veniva confrontato con la TI4600) per creare un clima di attesa e frenare, in qualche modo, non tanto le vendite quanto l'aumento di popolarità che ATI stava avendo, soprattutto tra gli addetti ai lavori (ebbene si, non è dei consumatori che ci si preoccupa più di tanto, perchè in realtà gli acquisti sono pilotati dal mercato; a dimostrazioni di ciò è che, persino tra i patiti delle prestazioni estreme, tipo i recordmen di 3DMark, schede da 500 € rappresentano una goccia nel mare - il 2% degli utenti registrati su Futuremark ha una 9700)). Un aumento della popolarità di ATI avrebbe determinato uno spostamento del mercato verso il marchio canadese e, l'assenza di nuove uscite nVIDIA per oltre un anno, sarebbe stata interpretata dagli addetti ai lavori come un'inequivocabile segno di crisi. Facendola uscire, invece, se da un lato ha perso, in parte la credibilità e la faccia, anche agli occhi di molti di quelli che la sostenevano a spada tratta, dall'altra ha mandato un segnale chiaro ai propri partners: "non siamo finiti, abbiamo solo sbagliato, in parte, un progetto ma ne è pronto subito un altro". Hai sicuramente seguito le recenti vicende di MSI; sembrava quasi sul punto di salire sul treno di ATI, ma nel momento in cui sembrava che stesse per abbandonare nVIDIA, quest'ultima ha iniziato a commercializzare, in piccole quantità, per il momento la FX5800 Ultra e così, anche MSI, ha messo la sua bella scheda in catalogo. Diverso sarebbe stato se nVIDIA avesse avuto daopporre all'attuale strapotere di ATI solo un prodotto uscito oltre un anno fa (per quanto ancora validissimo); il suo potere contrattuale nel confronti dei partners sarebbe diminuito notevolmente.
Il vero autogoal nVIDIA lo ha fatto in sede di lancio pubblicitario; se, una volta resosi conto dello stato delle cose, avesse iniziato ad impostare una campagna basata non più sulle prestazioni ma su altre caratteristiche, avrebbe ottenuto un elevato riscontro. E' vero infatti che 3dfx è stata condannata, tra l'altro, per non essere più riuscita a produrre i chip più veloci, ma è anche vero che la situazione era notevolmente diversa: all'uscita della VooDoo5 3dfx si trovava già costretta ad inseguire nVIDIA, mentre in questo caso era nVIDIA a fare la lepre e, dalla sua posizione di vantaggio, aveva buone possibilità di influenzare le scelte di mercato.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 01-04-2003, 13:18   #28
Milion
Bannato
 
Iscritto dal: Nov 2001
Messaggi: 333
yoss mi devo prendere un giorno di ferie per leggerti tutto...e io che pensavo di essere logorroioco

A parte gli scherzi, non mi è chiaro come la descrizione che hai reso dei processi di rendering del chip sia associabile ad una qualità superiore rispetto a r300 o anche al gf4 (limitatamente agli affetti che può supportare ovviamente).
Per spiegarmi meglio, io non dubito che la fx possa restituire una qualità buona, e alla luce della tua spiegazioni mi sta bene che possa restituirla anche a velocità apprezzabili sotto certe condizioni, ma rimane a mio parere comunque il dubbio dei filtri. L'antialiasing in particolare non ho idea se risenta di una implementazione fatta male nei drivers, ma l'algoritmo utilizzato appare drasticamente inferiore in termini di efficienza rispetto a quello che si può vedere anche con gf4. A questo mi riferivo parlando di qualità dell'immagine, anche in considerazione del fatto che ritengo la brillantezza dei colori, la saturazione e quant'altro ormai a livelli più che ragionevoli anche nei prodotti nvidia.
Magari tu ti stai riferendo a qualche tipo di effetto (la famosa e tanto polemizzata qualità cinematografica?) che la geforce fx supporta e le concorrenti no magari, ma a proposito di questo non sono informato che questa scheda possa fare molto di più di quello che le dx9 offrono. E non è una affermazione retorica, anzi ho sempre pensato che ogre a dawn potessero essere dei demo che anche r300 sarebbe in grado di far girare più che dignitosamente sia in termini di velocità che di qualità complessiva


Riguardo all'analisi di mercato sono sostanzialmente d'accordo con te, anche se io sono molto più critico relativamente alle scelte di marketing che nvidia ha sempre fatto...non sono in concomitanza con il lancio di nv30.
La differenza a mio parere è che se fino al gf4 il 70% era fumo e il 30% era arrosto (in un mercato in cui, a parte intel e nvidia, gli altri si attestano sul 50 e 50, a mio parere ) con nv30 hanno toccato limiti di fumosità prossimi al 90%.
E questo ha reso evidente molto più che la precedente situazione di quanto nvidia abbia sempre puntato sull'hype piuttosto che sulla concretezza.
La situazione di 3dfx è un chiaro esempio di come questo hype abbia confuso la situazione di mercato. Lasciando da parte gli "errori" che 3dfx ha commesso, grande parte della battaglia l'ha persa proprio sul maketing...soccombendo all'aggressività di quello nvidia che si preoccupava di decantare prestazioni elevatissime e senza preoccuparsi tanto di inquinare le acque in modo che i potenziali acquirenti fossero ben confusi di quello che sarebbe stato il mercato videoludico di li a poco (antialiasing, t&l, effetti cinematografici, ecc).
Ovviamente atteggiamenti così aggressivi hanno il rovescio della medaglia: la clientela ti rimane affezionata fino a che sei più forte di tutti, quando perdi questa caratteristica però ti abbandonano in fretta.
Questo è quello che sta succedendo...ed unitamente alle mosse di ati da te giustamente descritte ecco che si aprono scenari di mercato interessanti, in cui contano si i produttori i quali però sono pesantemente condizionati dagli umori degli utenti finali, resi palesi dai canali di reperimento di informazioni che hanno trovato in internet e nel suo boom il veicolo perfetto.
In questo secondo me il mercato è ben differente rispetto a quando le politiche aggressive di nvidia potevano avere un senso

Milio
Milion è offline   Rispondi citando il messaggio o parte di esso
Old 01-04-2003, 14:01   #29
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Cerco di risponderti brevemente.
Circa la qualità non intendevo sostenere che quella dell'FX sia superiore o inferiore a quella della 9700. Semplicemente, accennando ai processi di rendering intendevo dire che i drivers messi in circolazione da nVIDIA per incrementare le prestazioni, hanno impostazioni che vanno a scapito della qualità. Questo si verifica per la FX (e non è riscontrabile sugli altri prodotti nVIDIA) perchè agisce su alcuni parametri propri dell'NV30, come ad esempio i colori a 32 bit; immagina di aggiungere una riga di programma che forzi a 16 bit i colori se questi sono rappresentati a 32 bit (e solo in quel caso). Questo comando avrebbe effetto solo sulla FX poichè nessun altro chip utilizza 32 bit per singolo colore e altrettanti per il canale alfa. Conclusione: tutto invariato per gli altri, raddoppio di prestazioni per l'FX. Con le demo di Dawn e Ogre non ha avuto bisogno di ricorrere a questo trucco perchè tali SW sono ottimizzati in modo da girare fluidamente con l'NV30, mantenendo alte le impostazioni qualitative.
Anch'io sono sicuro che sull'R300 girerebbero fluidamente e con ottima qualità. Quello che intendevo sottolineare è che l'R300 non ha bisogno di questo tipo di impostazioni perchè presenta un'architettura che non solo ha meno limiti, ma ha anche, ancora, buoni margini di sviluppo (l'R350 è un esempio in tal senso).
Per quanto riguarda l'AA non ci sono stati progressi tra GF4 e FX. Sull'aniso, la mia idea è che, con le impostazioni "quality" l'R300 sia superiore per derminati angoli di visualizzazione (0°, 45°, 90°), e sia al livello di quello dell'NV30 negli altri. Il problema può essere rappresentato dalle transizioni tra un angolo e l'altro. In questo l'NV30 è migliore perchè l'aniso si comporta omogeneamente per tutte le angolazioni. Questo potrebbe (non abbiamo al momento le prove) rappresentare un vantaggio quando inizieranno ad uscire titoli che faranno uso massiccio di superfici curve (dove le transizioni sono obbligate e spesso anche brusche).

Sul marketing, concordo con te sulla politica aggressiva di nVIDIA, i cui effetti più sensibili sono stati la drastica riduzione dei competitori ad alti livelli, nell'arco di 5 anni, da alcune decine a, sostanzialmente, due (Matrox è un caso a parte e S3 e SIS stanno faticosamente tentando di riemergere). Questo non è un bene per il mercato perchè un duopolio non è altro che un monopolio temporaneo di uno dei 2 contendenti (non c'è mai vera competizione, almeno sulle prestazioni) e rischia di diventare un monopolio a tutti gli effetti in caso di defaillance di uno dei due. Purtroppo sappiamo che il marketing non fa che alimentare speranze, promettendo chimere (già all'uscita del G400 si parlava di fotorealismo, adesso ne stiamo ancora discutendo). La situazione del mercata SW è abbastanza stagnante a causa del fatto che la stragrande maggioranza dei possibili acquirenti non è dotata di macchine in grado di rendere al meglio gli effetti possibili con l'introduzione delle API più recenti (diventa una scelta obbligata quella di adoperare motori grafici non troppo avanzati, caricando il tutto con uno sproposito di poligoni per aumentare la qualità d'immagine; questo permette a tutti di far girare un determinato gioco, semplicemente regolando le impostazioni di base); questo condiziona anche la ditte produttrici di HW. Inoltre, stavolta voglio spezzare una lancia a favore di nVIDIA; c'è da dire che nVIDIA, insieme ad S3, già ad inizio '98 era stata promotrice di una battaglia per ottenere di poter integrare su un chip grafico tutto ciò che era necessario per portare a termine le elaborazioni delle immagini (senza l'ausilio della CPU), realizzando qualcosa di simile a quello che si vede nelle consolle. Ad opporsi furono Intel e AMD. Se fossero riusciti a vincere quella battaglia, già da tempo avremmo avuto l'utilizzo completo di PS e VS anche su schede video di fascia bassa, mentre invece, ancora adesso, si ha bisogno dell'ausilio della CPU per elaborare immagini 3D (ad esempio le unità VS sono ancora usate col contagocce, mentre si comincia a vedere qualcosa per i PS).
Concludo (purtroppo mi sono dilungato anche stavolta) con una considerazione sulla struttura dell'NV30 e su quella dell'R300. nVIDIA ha scommesso su un'architettura nuova, con un'unica matrice in grado di elaborare PS e VS, mentre ATI ha optato per un'architettura più tradizionale. Il tempo e le future evoluzioni (e soprattutto Microsoft) ci diranno se ha avuto ragione l'una o l'altra. Allo stato attuale, frequenze a parte, l'R300 appare più "potente"; si continua a parlare di struttura 8x1 e 4x2, ma non dimentichiamo che l'R300, in realtà, di pipelines (linee di lavoro, catene di montaggio o chiamatele come volete) ne ha 12 di cui 8 si occupano dei PS e 4 dei VS. Questo, quando finalmente uscirà (se uscirà) del SW che utilizzerà in maniera ampia i VS, sarà un ulteriore vantaggio nei casi di elaborazioni complesse.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 01-04-2003, 14:12   #30
Simon82
Senior Member
 
Iscritto dal: Jan 2001
Messaggi: 9098
Riassuntino?
__________________
26/07/2003
Simon82 è offline   Rispondi citando il messaggio o parte di esso
Old 01-04-2003, 14:56   #31
Legolas84
Senior Member
 
L'Avatar di Legolas84
 
Iscritto dal: Sep 2002
Città: Orizzonte degli eventi
Messaggi: 22730
Per rispondere a chi tirava fuori 3dfx....

3dfx Faceva schede sia veloci che con buona qualità... vedi voodoo3 che aveva un sacco di difetti (16 bit, Texture 256x256, 16mb di ram ecc...) però era più performante di una TNT2 (32 mb di ram 32bit che facevano più schifo dei 16 di 3dfx....... )

Con la voodoo 5 è vero, insguiva la GeForce2 GTS, che però aveva una qualità da far venire male (io L'ho avuta) e un Anti Aliasing da far ridere.
Solo che nvidia lodava le sue prestazioni migliori (E ti credo con un AA e una qualità così....) e così 3dfx ha chiuso i battenti!

Poi avete tuttiragione che 3dfx ha fatto degli errori (Vedi voodoo 3 2000 e Voodoo4PCI che vorrei sapere a chi è venuta in mente!!!! )però ha anche fatto la voodoo2, 3000, 5, e 6000. E infine, qualquno conosceva le specifiche del Rampage?

Scusate l'OT...
__________________
AMD Ryzen 7 9800X3D | Arctic Liquid Freezer 3 420 | ASUS ROG Strix X870E-e | 2x16GB DDR5 6400 CL30 G.Skill | Zotac NVIDIA GeForce RTX 5090 Solid | Seasonic Prime 1,3Kw Titanium | Kingston Fury Renegade 2Tb + SSD vari | Lian li o11 Dynamic Evo XL | ASUS PG42UQ | Razer DeathAdder V3 + Atlas + Huntsman V3 Pro TKL + Leviathan V2 Pro + Blackshark v2 pro (2023) | Synology DS423+ 3x8TB WD Red Pro | MacBook Air 2022 | AVM 5690 Pro |
Legolas84 è offline   Rispondi citando il messaggio o parte di esso
Old 01-04-2003, 15:00   #32
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originally posted by "Legolas84"

Per rispondere a chi tirava fuori 3dfx....

3dfx Faceva schede sia veloci che con buona qualità... vedi voodoo3 che aveva un sacco di difetti (16 bit, Texture 256x256, 16mb di ram ecc...) però era più performante di una TNT2 (32 mb di ram 32bit che facevano più schifo dei 16 di 3dfx....... )

Con la voodoo 5 è vero, insguiva la GeForce2 GTS, che però aveva una qualità da far venire male (io L'ho avuta) e un Anti Aliasing da far ridere.
Solo che nvidia lodava le sue prestazioni migliori (E ti credo con un AA e una qualità così....) e così 3dfx ha chiuso i battenti!

Poi avete tuttiragione che 3dfx ha fatto degli errori (Vedi voodoo 3 2000 e Voodoo4PCI che vorrei sapere a chi è venuta in mente!!!! )però ha anche fatto la voodoo2, 3000, 5, e 6000. E infine, qualquno conosceva le specifiche del Rampage?

Scusate l'OT...
Se ti riferisci a me, quando ho detto che 3dfx si trovava ad inseguire nVIDIA, mi riferivo esclusivamente alla posizione sul mercato, non alla qualità dei prodotti (la frase era inserita in un contesto in cui si parlava di mercato). E' innegabile che se nel '98 il 70% (circa) aveva schede Matrox o S3 o ATI e la metà di questi montava acceleratori VooDoo2, appena un anno dopo un buon 50% aveva su scheda nVIDIA.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 01-04-2003, 15:17   #33
Legolas84
Senior Member
 
L'Avatar di Legolas84
 
Iscritto dal: Sep 2002
Città: Orizzonte degli eventi
Messaggi: 22730
Quote:
Originally posted by "yossarian"



Se ti riferisci a me, quando ho detto che 3dfx si trovava ad inseguire nVIDIA, mi riferivo esclusivamente alla posizione sul mercato, non alla qualità dei prodotti (la frase era inserita in un contesto in cui si parlava di mercato). E' innegabile che se nel '98 il 70% (circa) aveva schede Matrox o S3 o ATI e la metà di questi montava acceleratori VooDoo2, appena un anno dopo un buon 50% aveva su scheda nVIDIA.
E questo spesso succede non per la bontà del prodotto, ma per l'ignoranza (intesa nel senso buono e non offensivo ) dei consumatori e delle aziende che pomapano i propri prodotti e sostanzialmente vendono fumo.... vedi GeForce FX....
__________________
AMD Ryzen 7 9800X3D | Arctic Liquid Freezer 3 420 | ASUS ROG Strix X870E-e | 2x16GB DDR5 6400 CL30 G.Skill | Zotac NVIDIA GeForce RTX 5090 Solid | Seasonic Prime 1,3Kw Titanium | Kingston Fury Renegade 2Tb + SSD vari | Lian li o11 Dynamic Evo XL | ASUS PG42UQ | Razer DeathAdder V3 + Atlas + Huntsman V3 Pro TKL + Leviathan V2 Pro + Blackshark v2 pro (2023) | Synology DS423+ 3x8TB WD Red Pro | MacBook Air 2022 | AVM 5690 Pro |
Legolas84 è offline   Rispondi citando il messaggio o parte di esso
Old 01-04-2003, 15:27   #34
Sell
Senior Member
 
L'Avatar di Sell
 
Iscritto dal: Sep 2002
Città: Palermo - 27yo
Messaggi: 2188
SE e dico SE ! nvidia sbaglia un altro colpo,x me sarebbe meglio ke kiude battenti.
__________________
Pc Dell Inspiron 1750 Postazione --> Ps3 80Gb+Ps4 Slim 1Tb +Samsy UE55D8000+Ampli Onkyo TX-NR509+Casse B&W+Sub Yamaha PSN NETEYE TRATTATIVE POSITIVE Mattimag, Hyper83, Mpd_Psycho, Maxb81, Pisuke_2K6, Karnak, Gimax
Sell è offline   Rispondi citando il messaggio o parte di esso
Old 01-04-2003, 15:55   #35
Milion
Bannato
 
Iscritto dal: Nov 2001
Messaggi: 333
La mia era solo una battuta yoss; in realtà, come ho già avuto modo di dirti, apprezzo molto il modo che hai di spiegare cose molto complicate con parole chiare e comprensibili. Gli argomenti stessi non si prestano alla brevità

Il riferimento ad r300 non voleva essere un confronto "meglio questo o quello", ma sentendoti parlare di ottima qualità ho inteso fare un paragone con qualcosa di conosciuto per capire se questa qualità avrà effettivamente qualcosa di più di altri prodotti presenti sul mercato oppure se è in un'altra salsa quello che è già presente in r300 (visto che è l'unico chip dx9 disponibile). La mia impressione, lo ripeto, è che in fine della fiera la qualità complessiva di nv30 sarà sicuramente buona, ma niente di così miracoloso come hanno tentato di farci credere.

Se poi nv35 parte da dove è arrivato nv30 penso che sia ne più ne meno che quello che nvidia avrebbe dovuto fare fin dall'inizio, anche se tenteranno di propinarci la storia di un'altro miracolo

Milio
Milion è offline   Rispondi citando il messaggio o parte di esso
Old 01-04-2003, 15:58   #36
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originally posted by "Legolas84"



E questo spesso succede non per la bontà del prodotto, ma per l'ignoranza (intesa nel senso buono e non offensivo ) dei consumatori e delle aziende che pomapano i propri prodotti e sostanzialmente vendono fumo.... vedi GeForce FX....
Il fatto è che. spesso per negligenza propria o per disinformazione, gli utenti finali non hanno accesso a fonti di informazioni quali quelle a cui faceva riferimento Milion, ossia i vari forum o i siti specializzati in HW, di cui pochissimi conoscono l'esistenza. Perciò si finisce con il farsi influenzare dalla pubblicità, dai consigli dell'amico "esperto", del negoziante "di fiducia". Non tenendo conto che, a volte, l'amico può non essere così esperto e il negoziante così competente o informato. Perciò sono dell'idea che l'FX flow sia una pessima pubblicità per nVIDIA, molto di più del mettere sul mercato un chip che non sia il più veloce. Il motivo è presto spiegato; che l'NV30 non è il chip più veloce, che ha dei problemi di architettura che lo limitano in maniera drastica, che è stato overclockato al punto da non poterlo spingere oltre, lo sanno gli addetti ai lavori e i maniaci di HW (schede video in particolare); prova a metterti, però, nei panni di chi acquista la versione Ultra, essendo all'oscuro di tutto questo. Non saprà cosa vuol dire overclock, però il rumore lo sente bene (e parlo di gente che non ha l'abitudine di mettere 7 ventole nel case, che non sa neppure cosa sia un cristal orb, che pensa che Termaltake faccia impianti di condizionamento, ammesso che ne abbia mai sentito parlare, ecc. ecc. ; e vi assicuro che questa è la stragrande maggioranza degli utenti).

Chiudo con una battuta (per carità non vi inca@@ate )

L'FX non è solo fumo: prova a farlo funzionare senza aspirapolvere

yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 01-04-2003, 15:59   #37
Milion
Bannato
 
Iscritto dal: Nov 2001
Messaggi: 333
Quote:
Originally posted by "Legolas84"



E questo spesso succede non per la bontà del prodotto, ma per l'ignoranza (intesa nel senso buono e non offensivo ) dei consumatori e delle aziende che pomapano i propri prodotti e sostanzialmente vendono fumo.... vedi GeForce FX....
Io sono di questo parere sin dai primi segni di cedimento di 3dfx, ma non possiamo negare anche il peso delle scelte sbagliate che hanno compiuto.
Nvidia assorbirà il colpo nv30 perchè ha enormi risorse finanziarie (uno potrebbe pure dire che qualunque prodotto medio venduto a prezzi di prodotti ottimi realizza lauti guadagni ) e se 3dfx non avesse sperperato le sue risorse nel tentativo di affermare glide come piattaforma proprietaria probabilmente avrebbe assorbito anche lei il colpo voodoo5.

Milio
Milion è offline   Rispondi citando il messaggio o parte di esso
Old 01-04-2003, 16:03   #38
Milion
Bannato
 
Iscritto dal: Nov 2001
Messaggi: 333
Quote:
Originally posted by "yossarian"




L'FX non è solo fumo: prova a farlo funzionare senza aspirapolvere

Ha fatto la battuuuuutaaaa ha fatto!

Milio

P.s. Milion è solo frutto della perdita della password originaria del forum e del fatto che le richieste di aiuto ai moderatori per rientrare in possesso del nick originario non hanno avuto alcuna risposta
So Milio senza enne

Milio
Milion è offline   Rispondi citando il messaggio o parte di esso
Old 01-04-2003, 16:03   #39
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originally posted by "Milion"

La mia era solo una battuta yoss; in realtà, come ho già avuto modo di dirti, apprezzo molto il modo che hai di spiegare cose molto complicate con parole chiare e comprensibili. Gli argomenti stessi non si prestano alla brevità

Il riferimento ad r300 non voleva essere un confronto "meglio questo o quello", ma sentendoti parlare di ottima qualità ho inteso fare un paragone con qualcosa di conosciuto per capire se questa qualità avrà effettivamente qualcosa di più di altri prodotti presenti sul mercato oppure se è in un'altra salsa quello che è già presente in r300 (visto che è l'unico chip dx9 disponibile). La mia impressione, lo ripeto, è che in fine della fiera la qualità complessiva di nv30 sarà sicuramente buona, ma niente di così miracoloso come hanno tentato di farci credere.

Se poi nv35 parte da dove è arrivato nv30 penso che sia ne più ne meno che quello che nvidia avrebbe dovuto fare fin dall'inizio, anche se tenteranno di propinarci la storia di un'altro miracolo

Milio
Certo, tieni conto anche di un'altra cosa molto importante. All'interno dei chip i colori cengono elaborati a 32, 24, 16 bit (e ciò permette di avere un maggiore o minore numero di sfumature), quello che viene visualizzato sul monitor è sempre, al massimo, 32 bit per pixel (ossia 8 bit per colore e 8 per il canale alfa, che diventa 10 bit per colore per R300 e Prhelia con 2 soli bit per il canale alfa). Questo riduce in maniera considerevole l'impatto visivo dovuto ad un'elaborazione interna più complessa. Per questo motivo le differenze non risultano troppo evidenti (altrimenti tra un'elaborazione a 16 ed una a 24 bit ci sarebbe un abisso).

p.s. non ti preoccupare, non me la sono assolutamente presa

Ciao Milio
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 01-04-2003, 21:12   #40
STICK
Senior Member
 
L'Avatar di STICK
 
Iscritto dal: Jan 2003
Messaggi: 1631
che risposte!

complimenti per questa discussione! Mai mi sarei sognato di assitere ad uno scambio di post cosi interessante in una discussione da me iniziata!
Dalle vostre considerazioni sono uscite belle (e corpose) discussioni e per di piu' da quello che vedo senza flame inutili,visto l'argomento in questione.
In piu' e' stata fatta chiarezza su certe situazioni di mercato dove se non ci stiamo attenti finiamo con l'essere penalizzati noi fruitori:i forum servono pure a questo! E qui su hwupgrade alla fine si puo' contare sull'aiuto di persone preparate da come si vede!
Continuate cosi!

Qui ci vuole il "premio moderatore" per migliore discussione
Senza nulla togliere alle altre,ovviamente!

byezzzzzzzz!
STICK è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


iPhone 17 Pro: più di uno smartphone. È uno studio di produzione in formato tascabile iPhone 17 Pro: più di uno smartphone. &Eg...
Intel Panther Lake: i processori per i notebook del 2026 Intel Panther Lake: i processori per i notebook ...
Intel Xeon 6+: è tempo di Clearwater Forest Intel Xeon 6+: è tempo di Clearwater Fore...
4K a 160Hz o Full HD a 320Hz? Titan Army P2712V, a un prezzo molto basso 4K a 160Hz o Full HD a 320Hz? Titan Army P2712V,...
Recensione Google Pixel Watch 4: basta sollevarlo e si ha Gemini sempre al polso Recensione Google Pixel Watch 4: basta sollevarl...
Alcune partite NBA saranno trasmesse in ...
Intel Core 13000 e 14000 aumentano uffic...
Gemini sta per arrivare in Google Maps: ...
2 minuti per vedere le 27 offerte imperd...
Ray-Ban Meta Display: tecnologia sorpren...
Un mini PC a prezzo stracciato, non cerc...
Al via i coupon nascosti di ottobre: qua...
Ferrari Elettrica si aggiorna solo in of...
Doppio sconto sugli smartphone top Xiaom...
Samsung è sempre più prota...
ChatGPT ha pregiudizi politici? Ecco cos...
Un solo iPhone rubato ha portato alla sc...
Xiaomi 17 Ultra sta arrivando: ecco come...
Il Motorola Edge 70 non ha più se...
Alcuni Galaxy S26 utilizzeranno il chip ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 11:42.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v