Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

ASUS NUC 15 Pro e NUC 15 Pro+, mini PC che fondono completezza e duttilità
ASUS NUC 15 Pro e NUC 15 Pro+, mini PC che fondono completezza e duttilità
NUC 15 Pro e NUC 15 Pro+ sono i due nuovi mini-PC di casa ASUS pensati per uffici e piccole medie imprese. Compatti, potenti e pieni di porte per la massima flessibilità, le due proposte rispondono in pieno alle esigenze attuali e future grazie a una CPU con grafica integrata, accompagnata da una NPU per la gestione di alcuni compiti AI in locale.
Cybersecurity: email, utenti e agenti IA, la nuova visione di Proofpoint
Cybersecurity: email, utenti e agenti IA, la nuova visione di Proofpoint
Dal palco di Proofpoint Protect 2025 emerge la strategia per estendere la protezione dagli utenti agli agenti IA con il lancio di Satori Agents, nuove soluzioni di governance dei dati e partnership rafforzate che ridisegnano il panorama della cybersecurity
Hisense A85N: il ritorno all’OLED è convincente e alla portata di tutti
Hisense A85N: il ritorno all’OLED è convincente e alla portata di tutti
Dopo alcuni anni di assenza dai cataloghi dei suoi televisori, Hisense riporta sul mercato una proposta OLED che punta tutto sul rapporto qualità prezzo. Hisense 55A85N è un televisore completo e versatile che riesce a convincere anche senza raggiungere le vette di televisori di altra fascia (e altro prezzo)
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 07-04-2003, 20:23   #41
sanitarium
Senior Member
 
L'Avatar di sanitarium
 
Iscritto dal: Nov 2002
Messaggi: 7569
Quote:
Originally posted by "neo1964"

Come si fanno le faccine??????
Clicchi sopra alla faccina che ti interessa (alla sinistra del box dove scrivi il messaggio) e questa viene inserita automaticamente nel messaggio!
__________________
† fear of living on † natives getting restless now † mutiny in the air † got some death to do † mirror stares back hard † kill, it's such a friendly word † seems the only way † for reaching out again †
sanitarium è offline   Rispondi citando il messaggio o parte di esso
Old 07-04-2003, 21:01   #42
neo1964
Junior Member
 
L'Avatar di neo1964
 
Iscritto dal: Mar 2003
Messaggi: 7
Quote:
Originally posted by "sanitarium"



Clicchi sopra alla faccina che ti interessa (alla sinistra del box dove scrivi il messaggio) e questa viene inserita automaticamente nel messaggio!
T.Y. 1000[/siz]

neo1964 è offline   Rispondi citando il messaggio o parte di esso
Old 07-04-2003, 21:16   #43
sanitarium
Senior Member
 
L'Avatar di sanitarium
 
Iscritto dal: Nov 2002
Messaggi: 7569
Quote:
Originally posted by "neo1964"



T.Y. 1000[/siz]

Di nulla!
__________________
† fear of living on † natives getting restless now † mutiny in the air † got some death to do † mirror stares back hard † kill, it's such a friendly word † seems the only way † for reaching out again †
sanitarium è offline   Rispondi citando il messaggio o parte di esso
Old 08-04-2003, 01:03   #44
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originally posted by "DoomIII"





si hai ragionissima, lo so bene... infatti mica me la prendo con Ati... c'è l'ho proprio con gli sviluppatori poi c'è anche da dire e considerare che l'attuale mossa Ati per quanto ottima commercialmente non favorisce certo il 'software nuovo' visto che si è dedicata ad ottimizzazioni 'old'

di nVidia ad esempio critico la serie economica... mi va bene una versione economissima MX... ma non come ha fatto. Vi ricordo che le MX non hanno la GPU (shader) ma ha solamente il T&L(fixed function).
Quindi ovviamente gli sviluppatori devono tener conto del fatto che non tutti gli utenti possiedono una GPU... e quindi i motori sono fixed-function oriented con marginale uso opzionale degli shader per ottenere qualche effetto in più.
Non è del tutto giusto dire che ATI con l'uscita dell'R300 non aiuta il progresso tecnologico. L'R300 è uscito con specifiche almeno DX9, quando le DX9 non erano ancora state rilasciate ufficialmente, quindi, al momento della sua immissione sul mercato, era addirittura in anticipo sui tempi. Il problema del SW vecchio rispetto all'HW è un po' quello del cane che si morde la coda (è un boxer ). Chi produce HW deve investire nella ricerca (che ha un costo piuttosto elevato) per poter essere concorrenziale. Questo comporta che, al momento della loro uscita, i nuovi prodotti hanno costi molto elevati (non accessibili alla stragrande maggioranza degli utenti che fruirebbero volentiri di HW high end). Di conseguenza si determina una situazione in cui le nuove tecnologie sono appannaggio di pochi. Chi produce SW dwvw a sua volta fare degli investimenti (notevoli, soprattutto quando si tratta di progettare un nuovo engine grafico) e, ovviamente spera di vendere il più possibile. Per poterlo fare, però, non può far uscire un prodotto che pochi sarebbero in grado di veder girare. Quindi deve adattare la produzione alle esigenze della massa.
Quando la nuova tecnologia diventa di massa (calano i costi), allora vuol dire che sono usciti prodotti con caratteristiche superiori (che a loro volta saranno a beneficio di pochi eletti). Se consideri che, a parte qualcuno che cambia frequentemente scheda video o cpu, la stragrande maggioranza di coloro che possiedono un pc amano giocare ma non sono giocatori incalliti e, perciò, cambiano HW quando la necessità glielo impone (quando si rompe qualcosa o quando qualche programma che, magari, serve per lavoro, non gira più sul vecchio pc), ossia. in media ogni 3 o 4 anni, ecco spiegato il motivo per cui la quasi totalità dei titoli attuali utilizzano specifiche DX7 (se non ancora più vecchie) e, col contagocce, qualcosa DX8; come vedi i conti tornano, poichè questi SW devono girare su macchine con scgede della famiglia delle TNT2 o delle G400 o delle VooDoo3 o magari, GF2 o Radeon 7200/7500 (quando non addirittura TNT, G200 o più vecchie ancora).
L'NV30 ha sicuramente delle caratteristiche interessanti, però, attenzione, poichè l'elevata programmabilità può essere ottenuta anche su una struttura come quella dell'R300, utilizzando la tecnica, nota come F-Buffer, ideata alla Stanford University (come dimostrato dall'R350), senza dover ricorrere ad una particolare architettura, come è stato invece per la FX, che determina, in molte situazioni, una perdita dell'efficienza.
Sul fatto che l'NV30 abbia dei margini di miglioramento non credo ci siano dubbi, ma lo stesso discorso vale anche per l?r300 (e l'R350, di conseguenza). Se poi la stessa nVIDIA, nel progettare l'NV35, ha modificato in maniera radicale l'architettura del chip (256 bit e, forse 8x1 anzichè 4x2, nonchè l'utilizzo di frequenze di funzionamento più basse), vuol dire che ha preso atto degli errori commessi ed è corsa ai ripari. Altrimenti avrebbe fatto come ha fatto con l'NV20 (quello si che è stato un chip veramente riuscito!) che le ha permesso di andare avanti tranquillamente per due anni con delle piccole modifiche ad un'architettura ben progettata.
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 08-04-2003, 08:34   #45
sanitarium
Senior Member
 
L'Avatar di sanitarium
 
Iscritto dal: Nov 2002
Messaggi: 7569
X Doom III

Ciao, io e te abbiamo già avuto uno scambio di opinioni su questo tema (NV30 e R300), ma ora mi viene spontanea una domanda: premesso che non voglio risultare affatto provocatorio, ma che invece la mia domanda nasce dal ragionamento che ho fatto leggendo i tuoi post, ti vorrei chiedere:
Se tu ti ritieni un utente imparziale, e se sei un grande sostenitore di GPU programmabili, shaders e via dicendo, come mai però esalti soltanto le tecnologie implementate su NV30, e non quelle implementate in R350? L'F-buffer non è ciò che tu hai sempre sognato, e cioè una tecnologia che supporta la programmazione di pixel shaders SENZA LIMITI DI LUNGHEZZA DELLE ISTRUZIONI? Non va anche oltre ciò che permette NV30, che invece i limiti (seppure difficili da raggiungere, ma pur sempre di limiti si tratta) ce li ha? Se si è appassionati di tecnologie, e non si bada alla marca di scheda video, allora perché non esaltare anche questa tecnologia implementata da ATi? Non mi sembra che ATi sia rimasta indietro a NVidia in fatto di innovazioni, anzi...
__________________
† fear of living on † natives getting restless now † mutiny in the air † got some death to do † mirror stares back hard † kill, it's such a friendly word † seems the only way † for reaching out again †
sanitarium è offline   Rispondi citando il messaggio o parte di esso
Old 08-04-2003, 10:02   #46
Maxsteel
Member
 
Iscritto dal: Nov 2001
Città: Torino
Messaggi: 69
Bravo Wonder molto provocatorio, ma mi sei piaciuto!!!
Maxsteel è offline   Rispondi citando il messaggio o parte di esso
Old 08-04-2003, 13:18   #47
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Che sia colpa del software o meno, ha poca importanza: il punto fondamentale è che l'NV30 non è il chip che tutti si aspettavano. Ati è riuscita a sfornare un prodotto che già da Agosto 2002 era possibile comprare e sfruttare superbamente, sia con applicazioni DX 7 che 8, e a fine 2002 anche con quelle DX9. Il tutto con una qualità grafica impareggiabile... e senza driver taroccati per aumentare le performance a discapito della qualità.

Sono tutti fatti assolutamente incontestabili: c'è poco da dire.

Non si possono imputare alla mancanza di software DX9 le prestazioni deludenti dell'NV30: l'R300 macina giochi alacramente con l'unità T&L sia fissa che non, senza farsi scrupoli della versione delle DX. Cosa che dovrebbe fare anche l'NV30, e lo fa: ma molto diversamente da quanto c'aveva illusi nVidia con i suoi grafici creati ad hoc e le false informazioni di cui ha riempito internet...

Tra l'altro, se già il software per le DX8 scarseggia, perché mai una casa avrebbe dovuto introdurre addirittura delle estensioni alle non ancora ufficiali e DirectX9? Masochismo o superbia?

Inoltre, nVidia mal ripagata dalla creazione e dalla concessione delle licenze degli shader? Non credo. Altre case hanno introdotto caratteristiche innovative che sono state poi integrate nelle nuove DirectX e nelle estensioni OpenGL: Environment mapping, Hardware displacement mapping, TrueForm sono soltanto gli esempi più conosciuti...

Piuttosto possiamo dire che non ha saputo capitalizzare e valorizzare quindi le proprie conoscenze: basti vedere Ati che, subito dopo l'arrivo delle GeForce3 con supporto ai nuovi shader, introdusse l'R200/8500 che implementava addirittura i nuovi shader 1.4 delle DX 8.1, non implementati da nVidia neppure nelle successive GeForce 4...

Ati, nVidia, Matrox, 3DLabs, sono tutte aziende che viaggiano bene o male sulla stessa barca: non si può certo dire che Ati è stata avvantaggia rispetto ad nVidia perché è un colosso e con le sue risorse se lo può permettere...

Questa volta è andata bene ad Ati e male ad nVidia: tutto qui. E c'è poco da ricamarci sopra discorsi più o meno utili: parlano i fatti!

Vedremo con l'NV35 e poi con l'R400 se il mercato saprà ritrovare un giusto bilanciamento delle architetture (e dei prezzi)...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 08-04-2003, 15:29   #48
yossarian
Senior Member
 
Iscritto dal: Mar 2001
Messaggi: 5390
Quote:
Originally posted by "cdimauro"

Che sia colpa del software o meno, ha poca importanza: il punto fondamentale è che l'NV30 non è il chip che tutti si aspettavano. Ati è riuscita a sfornare un prodotto che già da Agosto 2002 era possibile comprare e sfruttare superbamente, sia con applicazioni DX 7 che 8, e a fine 2002 anche con quelle DX9. Il tutto con una qualità grafica impareggiabile... e senza driver taroccati per aumentare le performance a discapito della qualità.

Sono tutti fatti assolutamente incontestabili: c'è poco da dire.

Non si possono imputare alla mancanza di software DX9 le prestazioni deludenti dell'NV30: l'R300 macina giochi alacramente con l'unità T&L sia fissa che non, senza farsi scrupoli della versione delle DX. Cosa che dovrebbe fare anche l'NV30, e lo fa: ma molto diversamente da quanto c'aveva illusi nVidia con i suoi grafici creati ad hoc e le false informazioni di cui ha riempito internet...

Tra l'altro, se già il software per le DX8 scarseggia, perché mai una casa avrebbe dovuto introdurre addirittura delle estensioni alle non ancora ufficiali e DirectX9? Masochismo o superbia?

Inoltre, nVidia mal ripagata dalla creazione e dalla concessione delle licenze degli shader? Non credo. Altre case hanno introdotto caratteristiche innovative che sono state poi integrate nelle nuove DirectX e nelle estensioni OpenGL: Environment mapping, Hardware displacement mapping, TrueForm sono soltanto gli esempi più conosciuti...

Piuttosto possiamo dire che non ha saputo capitalizzare e valorizzare quindi le proprie conoscenze: basti vedere Ati che, subito dopo l'arrivo delle GeForce3 con supporto ai nuovi shader, introdusse l'R200/8500 che implementava addirittura i nuovi shader 1.4 delle DX 8.1, non implementati da nVidia neppure nelle successive GeForce 4...

Ati, nVidia, Matrox, 3DLabs, sono tutte aziende che viaggiano bene o male sulla stessa barca: non si può certo dire che Ati è stata avvantaggia rispetto ad nVidia perché è un colosso e con le sue risorse se lo può permettere...

Questa volta è andata bene ad Ati e male ad nVidia: tutto qui. E c'è poco da ricamarci sopra discorsi più o meno utili: parlano i fatti!

Vedremo con l'NV35 e poi con l'R400 se il mercato saprà ritrovare un giusto bilanciamento delle architetture (e dei prezzi)...
oltretutto la concessone dell'utilizzo degli shader (come di qualunque altra innovazione) per DX e OGL, fa comodo anche a chi tale novità l'ha ideata. Se gli shader non fossero diventati una standard ma fossero rimasti di proprietà nVIDIA, quanti giochi sarebbero usciti o sarebbero potuti uscire con supporto PS, sapendo che solo una minima parte dell'HW in circolazione ne avrebbe beneficiato?
yossarian è offline   Rispondi citando il messaggio o parte di esso
Old 08-04-2003, 16:38   #49
DoomIII
Senior Member
 
Iscritto dal: May 2002
Messaggi: 830
Re: X Doom III

Quote:
Originally posted by "sanitarium"

Ciao, io e te abbiamo già avuto uno scambio di opinioni su questo tema (NV30 e R300), ma ora mi viene spontanea una domanda: premesso che non voglio risultare affatto provocatorio, ma che invece la mia domanda nasce dal ragionamento che ho fatto leggendo i tuoi post, ti vorrei chiedere:
Se tu ti ritieni un utente imparziale, e se sei un grande sostenitore di GPU programmabili, shaders e via dicendo, come mai però esalti soltanto le tecnologie implementate su NV30, e non quelle implementate in R350? L'F-buffer non è ciò che tu hai sempre sognato, e cioè una tecnologia che supporta la programmazione di pixel shaders SENZA LIMITI DI LUNGHEZZA DELLE ISTRUZIONI? Non va anche oltre ciò che permette NV30, che invece i limiti (seppure difficili da raggiungere, ma pur sempre di limiti si tratta) ce li ha? Se si è appassionati di tecnologie, e non si bada alla marca di scheda video, allora perché non esaltare anche questa tecnologia implementata da ATi? Non mi sembra che ATi sia rimasta indietro a NVidia in fatto di innovazioni, anzi...
Ciao

semplicemente perchè ci sono molti aspetti da considerare... si può leggere da qualche parte: l'R350 ha F-Buffer che ecc... ecc... e di conseguenza farsi un'opinione e similmente per altre features. (stesso discorso ovviamente è per nVidia)
Tutt'altra cosa è analizzare nel dettaglio per cercare di farsi un idea... nel caso specifico per la sommatoria di tutti gli aspetti ho tratto le mie conclusioni. (un po come quando analizzai NV20 ritenendolo rivoluzionario ma rendendomi pienamento conto che per poter realmente sfruttare gli shader c'era la necessità di un NV25... poi adesso questo è gia passato e non è neanche stato sfruttato...)
Sono più impressionato dagli sviluppi nVidia(anche a livello di istruzioni shader ad esempio e l'architettura stessa del vertex e del pixel shader)... e vi ricordo che è proprio il tipo di architettura adottata che può beneficiare enormemente di nuovi driver... che non sono come alcuni di voi insinuano trucchetti subdoli per avere performance maggiori... per chi la pensa così si informi un'attimino su cosa è un driver ed a cosa serve ecc... (questo non toglie nulla ovviamente ai discorsi dei driver-boost... mi riferisco a driver che fanno il loro lavoro...)

cmq non nego che Ati faccia/abbia fatto e speriamo farà le sue 'evoluzioni tecnlogiche'... ma spesso non mi convincono(poi in futuro le cose possono cambiare)... è presto per parlare del F-Buffer ma non mi convince del tutto(un po come il trueforme a suo tempo)... attualmente preferisco la soluzione nVidia.

inoltre rispondo anche a chi insiste con sta storia che ad nVidia è andata male ecc.... che parlano i fatti...
quali fatti?
non c'è niente da ricamare... senza nulla togliere ai meriti di Ati mi sembra semplicemente un po presto per fare discorsi di questo tipo... poi vabbè se lo scopo è mettersi una coppa nella propria cameretta con su scritto Ati per 2 settimane dominatrice del mondo...
non dimenticate però che nVidia è ancora ben che prima per quanto riguarda la base installata... con questo non voglio elogiare nVidia ma non mi sembra il caso di continuare per la situazione attuale, che IMHO è soltanto confusa e transitoria, a far vedere che nVidia sia in crisi pronta al fallimento.
Da un certo punto di vista mi sembra che sia una partita a calcio dove una parte sta vincendo alla grande e l'altra ha fatto il gol della bandiera su rigore... e per questo motivo dopo il 10 a 1 i tifosi della squadra perdente esultano vittoriosi insultando l'altra squadra (che sta vincendo) come se invece fosse questa a perdere...

mi sembra che indubbiamente nVidia sia da molto tempo leader del mercato... se adesso non lo è più al 100% perchè per vari bench ecc... ha perso il ruolo di scheda più veloce che sembrerebbe sia Ati... questo non fa assolutamente di Ati la leader... è per Ati un ottimo segnale e raccoglie sicuramente ciò che le spetta per il lavoro che hanno fatto perchè indubbiamente hanno migliorato e migliorano su tutti i fronti... ma ripeto per diventare leader deve fare ancora qualche gol... e se adesso è stata favorita da una certa situazione stazionaria e transitoria sia hardware che software il futuro è tutto da giocare. (ciò non toglie ovviamente i meriti per aver saputo interpretare il momento con scelte di marketing azzaccate... potrebbe anche essere stata fortuna... ma diamone merito )

poi l'ho già detto in altri post... visto il casino che avete fatto nessuno fermerà gli nVidia-boy a rompere in tutti i thread non appena la situazione per un motivo o per l'altro cambierà.
Ritornando alla partita sopra ed al casino fatto per il 10-1... immaginatevi che tafferugli al 11 a 1...

per far si che la situazione cambi bastano una di queste cose:
-nuove revisioni del NV30 che risolvano alcuni problemi
-nuovi driver perchè quelli attuali non sono competenti per l'hw e non potete neanche immaginare la differenza con dei driver ottimizzati
-NV35
-giochi che sfruttino degnamente i vertex/pixel shader e non quindi fixed-function oriented.
DoomIII è offline   Rispondi citando il messaggio o parte di esso
Old 08-04-2003, 17:59   #50
Faby82
Senior Member
 
Iscritto dal: Dec 2001
Città: Borgomanero (NO)
Messaggi: 565
X DoomIII

Potresti gentilmente spiegare perkè non ti convince l'F-buffer?
Secondo te è giusto paragonare l'R300 con l'NV30 considerando il gap temporale della loro uscita e il prezzo?

Vedremo l'NV35 e l'R400 ke innovazioni porteranno :P

peace&love

Faby82 è offline   Rispondi citando il messaggio o parte di esso
Old 09-04-2003, 11:29   #51
DoomIII
Senior Member
 
Iscritto dal: May 2002
Messaggi: 830
Re: X DoomIII

Quote:
Originally posted by "Faby82"

Potresti gentilmente spiegare perkè non ti convince l'F-buffer?
assolutamente no
bè, diciamo innanzi tutto che il mio commento era rivolto a specificare che tra l'insieme di cose fatte da nVidia e da Ati preferisco quelle della prima...
per quanto riguarda l'F-Buffer sinceramente non se ne sa ancora molto dell'implementazione Ati... dico questo perchè l'F-buffer tecnologicamente non è propriamente un invenzione Ati... e quindi bisogna vedere invece quella che è la sua implementazione della quale non si sa molto.
Non mi convince perchè per quello che si sa trovo l'FX sicuramente più flessibile... inoltre in questo momento è una soluzione inutile che mi sembra più che altro vada a sopperire a gravi mancanze del R300.
NV30 vs R300 bastarebbe ed avanzerebbe del software decente per declassare l'R300 che presenta gravi lacune:

in sostanza l'architettura è obiettivamente a detta di tutti gli esperti del settore tecnologicamente più avanzata... ma sopratutto viene incontro agli sviluppatori offrendo maggiore flessibilità. Nell'architettura nVidia ha dedicato tutto agli shader o meglio all'esecuzione dei programmi shader è ovvio che nel software attuale che non sfrutta gli shader non è possibile rendersi conto di queste ottimizzazioni e dei progressi che ha fatto in merito nVidia... per tornare al discorso delle lacune del R300 ci sono situazioni in cui grazie all'architettura del NV30 basta una sola passata ed un solo programma shader laddove R300 invece sarebbe costretto ad usarne molte di più con un rapporto anche di 1:7 con un conseguente calo di performance impressionante sul R300.



Questa soluzione porta ancora ad altri problemi di compatibilità tra le 2 rivali (Ati e nVidia) complicando ancora la situazione agli sviluppatori poichè mi sembra la soluzione FX attualmente fornisca opzioni in più mentre quella Ati soffra di effetti collaterali... e potrebbe essere in un certo senso un po come il trueform(in un motore shader il trueform crea artefatti grafici ed è quindi inutilizzabile... ad esempio in caso di 'reali ombre dinamiche')

hmm... c'è anche il fatto che attualmente l'F-Buffer viene supportato dalle OpenGL ma non in DX... e teoricamente la soluzione NV30 è già nelle specifiche delle estensioni della prossima release delle DX.

Quote:
Originally posted by "Faby82"


Secondo te è giusto paragonare l'R300 con l'NV30 considerando il gap temporale della loro uscita e il prezzo?
no questo no... l'R300 andrebbe paragonato al NV35 visto che è gia stato presentato... anche se a porte chiuse

Quote:
Originally posted by "Faby82"


Vedremo l'NV35 e l'R400 ke innovazioni porteranno :P

peace&love
hmmm... l'NV35 e l'NV30 rinato con i nuovi driver si scontreranno con l'R350...

per l'R400 che dovrebbe uscire ai primi del prossimo anno o forse entro la fine dell'anno ci dovrebbe essere l'NV40... uso il condizionale perchè dipende molto da Ati... da quanto valido sarà l'R400 e da come finirà la battaglia NV35 vs R350... altrimenti si... a fine anno dopo R400 si scontrerà con NV35 in fin dei conti cavallo di battaglia del R400 saranno gli shader versione 3.... ma già nell'NV30 nVidia si trova pronta tecnologicamente soddisfando diversi requisiti a dimostrazione di come nVidia già ci sia dove Ati arriverà forse a fine anno... e sarà da vedere come ci arriva... anzi nVidia si auspica al più presto lo sfruttamente di alcune di quelle estensioni per dimostrare la potenza del NV30 che adesso non può essere espressa... in tal senso NV30 ma molto meglio NV35 potrebbero dimostrarsi un investimento.

sinceramente spero Ati faccia un buon lavoro così nVidia spara fuori l'NV40 e non ci sia quindi la battaglia NV35 vs R400.
DoomIII è offline   Rispondi citando il messaggio o parte di esso
Old 09-04-2003, 14:37   #52
sanitarium
Senior Member
 
L'Avatar di sanitarium
 
Iscritto dal: Nov 2002
Messaggi: 7569
Re: X DoomIII

Quote:
Originally posted by "DoomIII"

no questo no... l'R300 andrebbe paragonato al NV35
E' uno scherzo, vero?
__________________
† fear of living on † natives getting restless now † mutiny in the air † got some death to do † mirror stares back hard † kill, it's such a friendly word † seems the only way † for reaching out again †
sanitarium è offline   Rispondi citando il messaggio o parte di esso
Old 09-04-2003, 14:57   #53
DoomIII
Senior Member
 
Iscritto dal: May 2002
Messaggi: 830
Re: X DoomIII

Quote:
Originally posted by "sanitarium"



E' uno scherzo, vero?
se hai letto tutto il mio commento quello che dico dopo dovrebbe chiarire le idee:

Quote:
Originally posted by "postato da me


...
hmmm... l'NV35 e l'NV30 rinato con i nuovi driver si scontreranno con l'R350...
...
quindi diciamo che in parte è una scherzo... ma dipende molto da cosa si intende per scontrarsi/confronto ecc...
e non è affatto detto che anche da un punto di vista di mercato i 2 prodotti non vadano a scontrarsi...

e soprattutto l'ho detto perchè è sempre bello notare l'imparzialità delle persone... dire che l'R400 si scontrerà con l'NV35 vi è normale... lo accettate con naturalezza... l'R400 sarà nuovissimo mentre l'NV35 è già stato presentato... Ati ha comunicato di decellerare il processo produttivo e sono segnali che fanno vedere l'arrivo del R400 come futuro... però per voi che siete neutrali imparziali ecc... è normale... la fantastica Ati combatterà contro la misera nVidia sfoderando una nuova scheda grafica basata sul R400 e nVidia risponderà con il vecchio NV35 che già possiede.
Questo mi sembra semplicemente stupido e potrebbe accadere solo se l'R400 uscisse presto e si rivelasse poco avanzato tecnologicamente e quindi nVidia potrebbe decidere di aspettare a rilasciare Nv40... ma siccome i tempi di arrivo del R400 non sembrano imminenti...

quindi tornando al discorso noto con piacere la vostra imparzialità di gridare allo scandalo se si dice che l'NV35 attualmente esistente dovrebbe scontrarsi con l'NV30... quando ovviamente vi va benissimo pensare ad un R400 vs NV35.

quindi l'ho detto con ironia e sarcasmo per far notare come per quanto si possa dire il contrario... almeno un po di tifo c'è...
del resto tu non ti sei certo sognato di quotare la frase in cui un tifoso Ati lasciava travedere un R400 vs N35... perchè non hai quotato a quello dicendo: scherzi?
DoomIII è offline   Rispondi citando il messaggio o parte di esso
Old 09-04-2003, 15:04   #54
sanitarium
Senior Member
 
L'Avatar di sanitarium
 
Iscritto dal: Nov 2002
Messaggi: 7569
Re: X DoomIII

Quote:
Originally posted by "DoomIII"



se hai letto tutto il mio commento quello che dico dopo dovrebbe chiarire le idee:



quindi diciamo che in parte è una scherzo... ma dipende molto da cosa si intende per scontrarsi/confronto ecc...
e non è affatto detto che anche da un punto di vista di mercato i 2 prodotti non vadano a scontrarsi...

e soprattutto l'ho detto perchè è sempre bello notare l'imparzialità delle persone... dire che l'R400 si scontrerà con l'NV35 vi è normale... lo accettate con naturalezza... l'R400 sarà nuovissimo mentre l'NV35 è già stato presentato... Ati ha comunicato di decellerare il processo produttivo e sono segnali che fanno vedere l'arrivo del R400 come futuro... però per voi che siete neutrali imparziali ecc... è normale... la fantastica Ati combatterà contro la misera nVidia sfoderando una nuova scheda grafica basata sul R400 e nVidia risponderà con il vecchio NV35 che già possiede.
Questo mi sembra semplicemente stupido e potrebbe accadere solo se l'R400 uscisse presto e si rivelasse poco avanzato tecnologicamente e quindi nVidia potrebbe decidere di aspettare a rilasciare Nv40... ma siccome i tempi di arrivo del R400 non sembrano imminenti...

quindi tornando al discorso noto con piacere la vostra imparzialità di gridare allo scandalo se si dice che l'NV35 attualmente esistente dovrebbe scontrarsi con l'NV30... quando ovviamente vi va benissimo pensare ad un R400 vs NV35.

quindi l'ho detto con ironia e sarcasmo per far notare come per quanto si possa dire il contrario... almeno un po di tifo c'è...
del resto tu non ti sei certo sognato di quotare la frase in cui un tifoso Ati lasciava travedere un R400 vs N35... perchè non hai quotato a quello dicendo: scherzi?
Veramente io ritengo assurdo anche il confronto R400 vs NV35, ma a quanto pare tu hai già tirato le tue conclusioni bollandomi come tifoso... E' bello vedere che anche da parte tua c'è molta imparzialità.
__________________
† fear of living on † natives getting restless now † mutiny in the air † got some death to do † mirror stares back hard † kill, it's such a friendly word † seems the only way † for reaching out again †
sanitarium è offline   Rispondi citando il messaggio o parte di esso
Old 09-04-2003, 16:01   #55
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Con le soluzioni proprietarie non si va certo avanti: è con gli standard che si aprono le porte al progresso...

Per quanto riguarda la questione dei driver "taroccati" da nVidia, non sono certo il primo a dirlo: basta farsi un giretto e trovare delle prove che evidenziano chiaramente come con alcuni driver si è assistito ad un netto boost prestazionale... Ma a discapito della qualità, com'è visibile dai numerosissimi screenshot comparativi.

Se poi uno vuol continuare a vedere, sono fatti suoi...

Quanto al software proprietario che dovrebbe sfruttare meglio l'NV30 e offrire delle prestazioni superiori rispetto alle altre architetture (R300/350 in particolare), leggetevi le interviste a Carmack sulla sua ultima "creatura" (Doom3, ovviamente): l'NV30-path è sicuramente più veloce, ma la qualità del rendering viene forzata a 16 bit (quindi 64 bit) contro i 32 bit (128bit) sbandierati tanto da nVidia, mentre i concorrenti sfruttano i 24 bit per canale...
A ciò aggiungiamo anche il fatto che il codice "generico" (AB2) gira due volte più velocemente su R300 che su NV30 e le conclusioni di ciò le può trarre chiunque...

Il Trueform presenta dei difetti perché non è stato implementato correttamente: di giochi con engine appositamente realizzati per sfruttare le n-patch nativamente non ne ho mai visti in giro. Esistono al più delle patch rilasciate dalle software house per abilitare le superfici curve nei loro giochi, ma così facendo è ovvio che vengano introdotti degli artefatti.
Infatti mi aspetto per il futuro di vedere delle applicazioni che sfruttino finalmente appieno sia le n-patch che il displacemente mapping hardware sia per aumentare la qualità visiva delle scene sia per diminuire nettamente il carico di lavoro della CPU... Altrimenti che senso ha parlare di GPU che sgravano il processore dal calcolo delle scene 3D quando il numero di triangoli da calcolare cresce sempre piu? In questo modo si forzano gli utenti a comprare CPU sempre più pompate...

Infine, gli shader sono delle grandi invenzioni, ma non esistono solo quelle e tante altre innovazioni realizzate da altre case hanno apportato e apporteranno significativi miglioramente qualitativi (mi riferisco a quelli che ho citato). Come programmatore è chiaro che gli shader hanno un occhio di riguardo, perché si tratta di realizzare dei programmi ad hoc per una nuova architettura. Ma con ciò non posso certamente sottovalutare tutti gli altri elementi! Al contrario, proprio perché sono un programmatore mi piace apprezzare e valutare OGNI elemento, dandogli il giusto il peso...

P.S. Non ci tengo a innalzare trofei alla Ati: a gennaio ho comprato una scheda madre con nForce2 e una GeForce2 MX 400. Non mi sono mai legato mani e piedi a una marca, per cui mi posso permettere il lusso di parlare di qualunque cosa senza remore o fobie da utente fanatico...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 09-04-2003, 23:17   #56
DoomIII
Senior Member
 
Iscritto dal: May 2002
Messaggi: 830
Quote:
Originally posted by "cdimauro"

Con le soluzioni proprietarie non si va certo avanti: è con gli standard che si aprono le porte al progresso...

Per quanto riguarda la questione dei driver "taroccati" da nVidia, non sono certo il primo a dirlo: basta farsi un giretto e trovare delle prove che evidenziano chiaramente come con alcuni driver si è assistito ad un netto boost prestazionale... Ma a discapito della qualità, com'è visibile dai numerosissimi screenshot comparativi.

Se poi uno vuol continuare a vedere, sono fatti suoi...
purtroppo nVidia ha preso esempio da Ati che in tal senso è maestra ed imbattibile.



cmq non mi riferivo a driver taroccati ma a driver che proprio in virtù dell'architettura evoluta:
[i]
the NV30 is twitchy enough to require more serious analysis and scheduling, which is why they expect significant improvements with later drivers. (J.Carmcak)
[/]

Quote:
Originally posted by "cdimauro"


Quanto al software proprietario che dovrebbe sfruttare meglio l'NV30 e offrire delle prestazioni superiori rispetto alle altre architetture (R300/350 in particolare), leggetevi le interviste a Carmack sulla sua ultima "creatura" (Doom3, ovviamente): l'NV30-path è sicuramente più veloce, ma la qualità del rendering viene forzata a 16 bit (quindi 64 bit) contro i 32 bit (128bit) sbandierati tanto da nVidia, mentre i concorrenti sfruttano i 24 bit per canale...
A ciò aggiungiamo anche il fatto che il codice "generico" (AB2) gira due volte più velocemente su R300 che su NV30 e le conclusioni di ciò le può trarre chiunque...
hmmm... qui mi deludi... parti bene spiegando anche se nascondi alcune cose... ma poi invece non spieghi perchè la soluzione nVidia è + lenta... e lo è per lo stesso motivo per qui l'altra è più veloce... questione di bit.


so when Nvidia runs fragment programs, they are at a higher precision than ATI's, which is some justification for the slower speed. Nvidia assures me that there is a lot of room for improving the fragment program performance with improved driver compiler technology.


vi ricordo:

In terms of Performance :
NV30+NV30-path is faster than NV30+ARB2
NV30+NV30-path is faster than R300+ARB2
R300+ARB2 is faster than NV30+ARB2
R300+R200-path is faster than R300+ARB2

In terms of Quality :
NV30+ARB2 is better than NV30+NV30-path
NV30+ARB2 is better than R300+ARB2
R300+ARB2 is better than NV30+NV30-path
R300+ARB2 is better than R300+R200-path


e riguardo alla qualità nella soluzione nVidia più veloce che tu lasci intendere abbia una qualità nettamente inferiore:

There is no discernable quality difference, because everything is going into an 8 bit per component framebuffer
The quality differences on the ARB2 path are really not all that significant
(J.Carmcak)


Quote:
Originally posted by "cdimauro"


Il Trueform presenta dei difetti perché non è stato implementato correttamente: di giochi con engine appositamente realizzati per sfruttare le n-patch nativamente non ne ho mai visti in giro. Esistono al più delle patch rilasciate dalle software house per abilitare le superfici curve nei loro giochi, ma così facendo è ovvio che vengano introdotti degli artefatti.
non è proprio così... non è questione di implementazione , da problemi in parallelo con certi processi(ad esempio luci&ombre dinamiche).

Quote:
Originally posted by "cdimauro"


Infatti mi aspetto per il futuro di vedere delle applicazioni che sfruttino finalmente appieno sia le n-patch che il displacemente mapping hardware sia per aumentare la qualità visiva delle scene sia per diminuire nettamente il carico di lavoro della CPU... Altrimenti che senso ha parlare di GPU che sgravano il processore dal calcolo delle scene 3D quando il numero di triangoli da calcolare cresce sempre piu? In questo modo si forzano gli utenti a comprare CPU sempre più pompate...
ci sono altre tecniche ben più interessanti per tenere il numero di poligoni basso ed aumentare il dettaglio... il motivo per cui il numero di poligoni cresce sempre più e proprio in virtù del vecchio T&L che continua ad essere lo standard.
Quote:
Originally posted by "cdimauro"


Infine, gli shader sono delle grandi invenzioni, ma non esistono solo quelle e tante altre innovazioni realizzate da altre case hanno apportato e apporteranno significativi miglioramente qualitativi (mi riferisco a quelli che ho citato). Come programmatore è chiaro che gli shader hanno un occhio di riguardo, perché si tratta di realizzare dei programmi ad hoc per una nuova architettura. Ma con ciò non posso certamente sottovalutare tutti gli altri elementi! Al contrario, proprio perché sono un programmatore mi piace apprezzare e valutare OGNI elemento, dandogli il giusto il peso...

P.S. Non ci tengo a innalzare trofei alla Ati: a gennaio ho comprato una scheda madre con nForce2 e una GeForce2 MX 400. Non mi sono mai legato mani e piedi a una marca, per cui mi posso permettere il lusso di parlare di qualunque cosa senza remore o fobie da utente fanatico...
bè, gli shader nuova architettura... è passato un po di tempo dalla presentazionde della Gef3... dove è stato mostrato per la prima volta DoomIII e lo dico indicando che cmq prima che la stessa fosse presentata alcuni sviluppatori potevano già lavorarci.
Capisco il tuo punto di vista ma il fatto è che le 2 cose, T&L cioè fixed function e gli shader, non solo complementari... non sono compatibili...
quello che tu dici che ti piace per i programmatori è un incubo!!!
bisogna scegliere se programmare a mezzo fixed function o shader e tenendo conto del mercato si utilizzano le fixed function e marginalmente gli shader... ma tutte queste fasi di compatibilità ecc... non sono proprio entusiasmanti per un programmatore...
sarebbe anche ora che gli shader diventassero lo standard...
DoomIII è offline   Rispondi citando il messaggio o parte di esso
Old 10-04-2003, 07:00   #57
cdimauro
Senior Member
 
L'Avatar di cdimauro
 
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
Quote:
Originally posted by "DoomIII"



cmq non mi riferivo a driver taroccati ma a driver che proprio in virtù dell'architettura evoluta:
[i]
the NV30 is twitchy enough to require more serious analysis and scheduling, which is why they expect significant improvements with later drivers. (J.Carmcak)
[/]
La questione dei driver che non sfruttano appieno la nuova architettura non è che mi abbia convinto più di tanto: possibile che in un anno e passa proprio nVidia, invidiata per la capacità di sviluppare degli ottimi driver, non abbia avuto il tempo di tirarne fuori alcuni decenti per la sua nuova creatura? E se veramente non c'è riuscita in un anno perché l'architettura è troppo complicata e/o evoluta, quanto tempo ci vorrà? E soprattutto, quando (e se) arriverà il software che la sfrutta decentemente?

Quote:
hmmm... qui mi deludi... parti bene spiegando anche se nascondi alcune cose... ma poi invece non spieghi perchè la soluzione nVidia è + lenta... e lo è per lo stesso motivo per qui l'altra è più veloce... questione di bit.
Mi pareva che il discorso forse più che esplicativo in merito: i numerini non li ho messi lì per niente, no?

Quote:

so when Nvidia runs fragment programs, they are at a higher precision than ATI's, which is some justification for the slower speed. Nvidia assures me that there is a lot of room for improving the fragment program performance with improved driver compiler technology.
Cioè? Utilizzano già il compilatore Cg nei driver per l'NV30? In questo caso dovresti sapere che un compilatore non può certo fare miracoli nell'ottimizzazione del codice per un'architettura: esiste una vastissima biblioteca in materia (una delle più "vecchie" e trattate nel campo dell'informatica, tra l'altro).

Poi vedi sopra: quanto tempo ci vorrà per tirare fuori dei driver decenti?

Quote:
vi ricordo:

In terms of Performance :
NV30+NV30-path is faster than NV30+ARB2
NV30+NV30-path is faster than R300+ARB2
R300+ARB2 is faster than NV30+ARB2
R300+R200-path is faster than R300+ARB2

In terms of Quality :
NV30+ARB2 is better than NV30+NV30-path
NV30+ARB2 is better than R300+ARB2
R300+ARB2 is better than NV30+NV30-path
R300+ARB2 is better than R300+R200-path
Appunto. Più velocità = meno qualità.

Quote:
e riguardo alla qualità nella soluzione nVidia più veloce che tu lasci intendere abbia una qualità nettamente inferiore:

There is no discernable quality difference, because everything is going into an 8 bit per component framebuffer
The quality differences on the ARB2 path are really not all that significant
(J.Carmcak)
Beh, innazitutto l'R300 (e mi pare anche l'NV30) è dotato di RAMDAC a 10 bit, per cui potrebbe benissimo essere sfruttato per migliorare la qualità visiva all'utente finale. E in questo caso, con 16 bit, rimarrebbero soltanto 6 bit di precisione per i calcoli, e mi sembrano veramente pochini...

Poi c'è il fatto che la maggior precisione non è certo stata introdotta per venire "castrata" da un framebuffer ad 8 bit: i pixel shader sono dei programmi che iterano più volte sulle componenti dei colori, per cui il maggior numero di bit evita che l'accumulo di dati e/o arrotondamenti dei tanti calcoli applicati sequenzialmente venga limitato al minimo o evitato. Tanto più se si utilizzano funzioni trigonometriche/logaritmiche, la cui imprecisione può farsi sentire già dopo pochi calcoli.

Altrimenti non mi spiego perché sono stati introdotti ed osannati i famosi 32 bit per canale, quando poi il software ne usa 16: solo per fare scena? Mi pare, tra l'altro, che le famose immagini che nVidia ha fatto circolare per la rete già da parecchi mesi fosse altamente esplicative per quanto riguarda le differenza fra immagini 3D generate con un maggior numero di bit...

Quote:
non è proprio così... non è questione di implementazione , da problemi in parallelo con certi processi(ad esempio luci&ombre dinamiche).
Mah. Non entro nel dettaglio perché non ho conoscenza in materia e non ti posso rispondere. Sulla carta le superfici curve non dovrebbero aver alcun problema neppure con le ombre: almeno all'università e nei testi di computer grafica non se n'è mai fatto cenno. Esistono dei software per worstation che utilizzano adirittura i solidi di rotazione per la generazione di superfici curve con pochissimi vertici e non mi sembra che abbiano avuto mai problemi. Comunque, se capiterà l'occasione, mi documenterò meglio...

Quote:
ci sono altre tecniche ben più interessanti per tenere il numero di poligoni basso ed aumentare il dettaglio... il motivo per cui il numero di poligoni cresce sempre più e proprio in virtù del vecchio T&L che continua ad essere lo standard.
Francamente non ho idea di cosa far diminuire di qualche ordine di grandezza il numero dei triangoli meglio delle superifici curve e del displacemente mapping hardware...

Quote:
bè, gli shader nuova architettura... è passato un po di tempo dalla presentazionde della Gef3... dove è stato mostrato per la prima volta DoomIII e lo dico indicando che cmq prima che la stessa fosse presentata alcuni sviluppatori potevano già lavorarci.
Infatti: non sono cosa perché la GF3 è presente da tempo, ma a livello di utilizzo siamo ancora agli albori...

Quote:
Capisco il tuo punto di vista ma il fatto è che le 2 cose, T&L cioè fixed function e gli shader, non solo complementari... non sono compatibili...
quello che tu dici che ti piace per i programmatori è un incubo!!!
E che ho detto di tanto terribile?!? Ho soltanto detto che mi piacerebbe che i nuovi engine cominciassero ad utilizzare le nuove funzionalità presenti già a partire dalle DX 8 (shader e superifici curve) e nelle DX 9 (displacement mapping hardware), così da rendere il carico sulla CPU MOLTO più leggero...

E' chiaro che non è assolutamente ipotizzabile che lo stesso engine possa funzionare sia con le schede DX 7 (fixed function T & L) che con quelle nuove: sono cose completamente diverse...

Quote:
bisogna scegliere se programmare a mezzo fixed function o shader e tenendo conto del mercato si utilizzano le fixed function e marginalmente gli shader...
Il mercato però è già saturo di soluzioni DX 8 & 8.1. E Ati ha già venduto più di un milione di schede basata sull'R300...

Quote:
ma tutte queste fasi di compatibilità ecc... non sono proprio entusiasmanti per un programmatore...
sarebbe anche ora che gli shader diventassero lo standard...
Più che altro sarebbe ora che fossero utilizzati a piene mani, assieme a tutte le altre caratteristiche, che io ritengo anche più importanti per le ricadute immediate che possono apportare in termini qualitativi e di (ridottissimo) impatto prestazionale...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro
@LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro
Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys
cdimauro è offline   Rispondi citando il messaggio o parte di esso
Old 10-04-2003, 08:38   #58
sanitarium
Senior Member
 
L'Avatar di sanitarium
 
Iscritto dal: Nov 2002
Messaggi: 7569
Quote:
Originally posted by "DoomIII"

purtroppo nVidia ha preso esempio da Ati che in tal senso è maestra ed imbattibile.

Quando si fanno certe affermazioni, come minimo bisogna essere pronti a fornire esempi e prove a riguardo. Ce li potresti portare, per favore?

E la prossima volta, prima di dare dei tifosi agli altri (non solo a me, ma in generale), guarda bene ciò che scrivi tu per primo.

P.S.: Noto con piacere che porti come esempio soltanto ciò che dice il sig. Carmack. Da quando ciò che dice lui è verbo sacro?

P.S. 2: La modalità NV30 fa girare DoomIII a 64-bit, vero? R300 invece lo fa girare a 96-bit, vero? Se è così, vorrei vedere il tanto arretrato R300 come farebbe girare DoomIII a 64-bit, anziché a 96-bit.
__________________
† fear of living on † natives getting restless now † mutiny in the air † got some death to do † mirror stares back hard † kill, it's such a friendly word † seems the only way † for reaching out again †
sanitarium è offline   Rispondi citando il messaggio o parte di esso
Old 10-04-2003, 10:41   #59
DoomIII
Senior Member
 
Iscritto dal: May 2002
Messaggi: 830
Quote:
Originally posted by "sanitarium"



Quando si fanno certe affermazioni, come minimo bisogna essere pronti a fornire esempi e prove a riguardo. Ce li potresti portare, per favore?

E la prossima volta, prima di dare dei tifosi agli altri (non solo a me, ma in generale), guarda bene ciò che scrivi tu per primo.
secondo te sono tifoso perchè cito fatti realmente accaduti?

ma lol... certo come no... quindi tu eri uno di quelli che postava entusiasta per il mondo dopo i driver Ati che fecero tanto scalpore per le performance prima di scoprire che abbassavano drasticamente la qualità... ma tu non ti ricordi niente vero? non è mai accaduto?
e impossibile che tu non lo sappia... quindi visto che neghi l'evidenza non è che si possa poi discutere...

Quote:
Originally posted by "sanitarium"


P.S.: Noto con piacere che porti come esempio soltanto ciò che dice il sig. Carmack. Da quando ciò che dice lui è verbo sacro?

no no... ma quando mai... ovviamente come fai capire tu Carmack è un incapace che non capisce niente... perchè mai quello che lui dice dovrebbe essere importante o vero? invece quello che dici tu sicuramente è un messaggio divino... altro che le scemenze di Carmack...
ma chi sarà mai Carmack per parlare di schede grafiche? ma perchè mai nVidia e Ati gli mandano sample delle loro schede grafiche e usufruiscono della sua collaborazione? che stupide nVidia ed Ati... dovrebbero mandare a te i sample... tu si che te ne intendi...

ovviamente la tua domanda sarebbe proprio da rigirarla a nVidia ed Ati e chiedere a loro come mai si basano su quanto dice Carmack... perchè gli mandano i sample ecc...


Quote:
Originally posted by "sanitarium"



P.S. 2: La modalità NV30 fa girare DoomIII a 64-bit, vero? R300 invece lo fa girare a 96-bit, vero? Se è così, vorrei vedere il tanto arretrato R300 come farebbe girare DoomIII a 64-bit, anziché a 96-bit.
J.C. ha indicato quali possibilità hardware ci sono per R300 e per NV30 di far girare DoomIII... non è una questione di software fatto o non fatto...

ho già risposto più volte... NV30 è molto flessibile anche in queste circostanze cosa che R300 non è... la tua domanda/considerazione sopra è relativa perchè necessiterebbe di una revisione architetturale al R300 e quindi un chip diverso... smettete con questi discorsi per nVidia ottimizzano per Ati no, il chip nVidia architetturalmente è molto più flessibile e proprio per questo i driver possono fare una grande differenza...
DoomIII è offline   Rispondi citando il messaggio o parte di esso
Old 10-04-2003, 11:17   #60
sanitarium
Senior Member
 
L'Avatar di sanitarium
 
Iscritto dal: Nov 2002
Messaggi: 7569
Quote:
Originally posted by "DoomIII"



secondo te sono tifoso perchè cito fatti realmente accaduti?

ma lol... certo come no... quindi tu eri uno di quelli che postava entusiasta per il mondo dopo i driver Ati che fecero tanto scalpore per le performance prima di scoprire che abbassavano drasticamente la qualità... ma tu non ti ricordi niente vero? non è mai accaduto?
e impossibile che tu non lo sappia... quindi visto che neghi l'evidenza non è che si possa poi discutere...
Ti ho già detto che la 9700pro è la mia prima scheda ATi, ma tu da quell'orecchio sembra che non ci senti... Ti riferisci all'episodio di Quake 3? Quello è stato un episodio, ma da come la metti tu ATi non fa altro che abbassare la qualità dei driver per aumentare la velocità. E comunque hai buttato tutto sulla tifoseria, tanto per cambiare, evitando di rispondere a ciò che ti ho chiesto. Pazienza.

Quote:
no no... ma quando mai... ovviamente come fai capire tu Carmack è un incapace che non capisce niente... perchè mai quello che lui dice dovrebbe essere importante o vero? invece quello che dici tu sicuramente è un messaggio divino... altro che le scemenze di Carmack...
ma chi sarà mai Carmack per parlare di schede grafiche? ma perchè mai nVidia e Ati gli mandano sample delle loro schede grafiche e usufruiscono della sua collaborazione? che stupide nVidia ed Ati... dovrebbero mandare a te i sample... tu si che te ne intendi...

ovviamente la tua domanda sarebbe proprio da rigirarla a nVidia ed Ati e chiedere a loro come mai si basano su quanto dice Carmack... perchè gli mandano i sample ecc...

Evidentemente ti piace stravolgere il significato di quello che dice la gente che la pensa diversamente da te. Io ho detto che ciò che dice Carmack non è bibbia, tu hai detto che io ritengo Carmack un incompetente. Certo che ce ne vuole a stravolgere così le parole degli altri...
Bene, comunque ora sappiamo che per te Carmack è Dio. Sono felice per te.

Quote:
J.C. ha indicato quali possibilità hardware ci sono per R300 e per NV30 di far girare DoomIII... non è una questione di software fatto o non fatto...

ho già risposto più volte... NV30 è molto flessibile anche in queste circostanze cosa che R300 non è... la tua domanda/considerazione sopra è relativa perchè necessiterebbe di una revisione architetturale al R300 e quindi un chip diverso... smettete con questi discorsi per nVidia ottimizzano per Ati no, il chip nVidia architetturalmente è molto più flessibile e proprio per questo i driver possono fare una grande differenza...
Tanto come la volti e come la giri, indipendentemente dalla domanda, tu dici sempre la stessa cosa: NV30 è molto più avanti di R300-350. Quindi è con te che è inutile parlare. Convinto tu...
Comunque per me la discussione è finita, non parlo con chi rigira le frittate a suo piacimento. Non vale la pena scannarsi per delle schede video.
__________________
† fear of living on † natives getting restless now † mutiny in the air † got some death to do † mirror stares back hard † kill, it's such a friendly word † seems the only way † for reaching out again †
sanitarium è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


ASUS NUC 15 Pro e NUC 15 Pro+, mini PC che fondono completezza e duttilità ASUS NUC 15 Pro e NUC 15 Pro+, mini PC che fondo...
Cybersecurity: email, utenti e agenti IA, la nuova visione di Proofpoint Cybersecurity: email, utenti e agenti IA, la nuo...
Hisense A85N: il ritorno all’OLED è convincente e alla portata di tutti Hisense A85N: il ritorno all’OLED è convi...
Acer TravelMate P6 14 AI: il Copilot+ PC sotto il chilo per il professionista in movimento Acer TravelMate P6 14 AI: il Copilot+ PC sotto i...
Recensione Borderlands 4, tra divertimento e problemi tecnici Recensione Borderlands 4, tra divertimento e pro...
Xbox Game Pass cambia: nuovi piani e pre...
Intel produrrà chip per AMD? L'in...
Ecco il nuovo Amazon Luna: videogiochi p...
ISRO: prosegue lo sviluppo della navicel...
CoD Black Ops 7 offrirà la beta p...
Il telescopio spaziale James Webb sta ai...
Crucial spinge sui moduli LPCAMM2: fino ...
Imgur blocca gli utenti del Regno Unito:...
ROG Xbox Ally già in consegna: qu...
Ubisoft annuncia Vantage Studios: Assass...
Il solare diventa la prima fonte di elet...
Google Home si rinnova completamente: ar...
Dense Geometry Format (DGF): novit&agrav...
Gemini for Home arriva a ottobre sui dis...
Amazon Smart Air Quality Monitor: a soli...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 21:15.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1