PDA

View Full Version : ATI vuole migliorare il supporto per Linux


Redazione di Hardware Upg
29-11-2004, 09:41
Link alla notizia: http://news.hwupgrade.it/13627.html

Continui sforzi da parte del produttore canadese per migliorare la qualità delle proprie soluzioni video anche sotto Linux

Click sul link per visualizzare la notizia.

MiKeLezZ
29-11-2004, 09:49
Grande, era ora.. In effetti era il suo tallone d'Achille.
Adesso non ci sono più scuse :P

dnarod
29-11-2004, 09:50
che linux sia poco usato rispetto a win siamo d accordo.....devo pero dire che gia da un paio di annetti vedo sempre piu gente che gioca con linux (parlo prettamente di multi).....praticamente vedo che tutti i giochi "supportati" hanno in community qualche plyer linux....mi e capitato giusto la sett scorsa in un torneo di enemy territory.....ma questo vale per un macello di games.....ad ogni modo benvenga! queste sono le mosse giuste per favorire la diffusione di liunx (parlo da win dipendente, quindi senza alcun fine recondito)

AndreKap
29-11-2004, 09:56
Originariamente inviato da Redazione di Hardware Upg
ATI ha triplicato il numero di sviluppatori che lavorano sui driver destinati a Linux...
... cioè li avrà portati da uno a tre.... :rolleyes:

ilGraspa
29-11-2004, 09:57
Fatti non pugnette...

HexDEF6
29-11-2004, 10:02
Io ho un'ati 9800 pro, comprata un anno fa, perche' al tempo l'ho pagato relativamente poco (meno di 200 euro) e perche' ATI prometteva lo sviluppo di driver decenti sotto linux.... in un anno i miglioramenti sono stati veramente pochi, le prestazioni sono decisamente scarse (provate a fare un confronto WIN - LINUX con una nvidia e ne rimarrete soddisfatti... la stessa cosa non si puo' dire di ATI), la stabilita' non e' delle migliori (non si possono avere due sessioni X contemporanee altrimenti crasha tutto!!), non hanno ancora il supporto per X.org 6.8, non riesco a vedere la tv con xawdecode o xawtv (cosa che faccio tranquillamente con i driver open di X.org 6.8... ovviamente niente 3d).... Ma ogni volta, che intervistavano qualcuno del reparto linux, questo prometteva che con la PROSSIMA relase di driver si sarebbero visti dei grossi miglioramenti...
Speriamo che si diano una mossa, specialmente perche' molti siti (tra cui dovrebbe esserci pure HWUP) stanno iniziando a fare test 3d su linux... e sicuramente questa non e' buona pubblicita' per l'ATI

Ciao!

HexDEF6
29-11-2004, 10:04
Originariamente inviato da ilGraspa
Fatti non pugnette...


cazzaora questo era proprio il mio pensiero... straquoto!

ilsensine
29-11-2004, 10:11
Continuo a non vedere un solo motivo per cui un utente linux dovrebbe preferire una ATI >= r300 a una nvidia.
Originariamente inviato da HexDEF6
Io ho un'ati 9800 pro[...]
Giusto per buttare altra benzina sul fuoco, dai una occhiata qui:
http://forum.hwupgrade.it/showthread.php?s=&threadid=824532

share_it
29-11-2004, 10:11
forse il fatto che ho mandato una mail al loro supporto tecnico dicendo che mi vendevo la ati e mi pigliavo una nvidia è servito! :)

PS: poi l'ho fatto davvero
speriamo in bene, quei driver sono delle schifezze per ora

Manwë
29-11-2004, 10:12
Non che quelli per Windows siano eccezionali ...

Wonder
29-11-2004, 10:13
Linux? LINUUUUX? Sarebbe meglio si buttassero su quelli a 64 bit che è meglio e farebbero felici più persone.

Duncan
29-11-2004, 10:13
Bene, almeno sul prossimo PC avrò più possibilità di scelta :)

Sempre che ai proclami seguano i FATTI ;)

Mason
29-11-2004, 10:21
per ora nvidia, senza ombra di dubbio.

ma son curioso su questo:
http://www.osnews.com/story.php?news_id=9003

DioBrando
29-11-2004, 10:27
Originariamente inviato da Duncan
Bene, almeno sul prossimo PC avrò più possibilità di scelta :)

Sempre che ai proclami seguano i FATTI ;)

già, speriamo...anche perchè di dichiarazioni roboanti se ne sn viste diverse ultimamente.

E il fatto che i drivers forniti da Nvidia siano molto meglio di quelli ATI non è che sia motivo di gran vanto per la casa canadese...per quanto i gamers su linux rispetto a quelli Win siano una piccolissima parte.

DioBrando
29-11-2004, 10:29
Originariamente inviato da Wonder
Linux? LINUUUUX? Sarebbe meglio si buttassero su quelli a 64 bit che è meglio e farebbero felici più persone.

sviluppare drivers per una piattaforma non ancora definitiva com'è Win64bit sarebbe senz'altro una mossa saggia :asd:

Dumah Brazorf
29-11-2004, 10:31
Originariamente inviato da AndreKap
... cioè li avrà portati da uno a tre.... :rolleyes:

Mi hai preceduto!! :asd:
Cmq io sono come san tommazzo... ehm... tommaso... :D :oink:
Ciao.

ilsensine
29-11-2004, 10:34
Originariamente inviato da Mason
ma son curioso su questo:
http://www.osnews.com/story.php?news_id=9003
Tutto è nato da questo thread:
http://marc.theaimsgroup.com/?l=linux-kernel&m=109831011607347&w=2

Non l'ho "pubblicizzato" in quanto dubito che possa portare a qualcosa di concreto per il mondo 3d libero.

Wonder
29-11-2004, 10:41
NOn mi stupisce che tu abbia commentato con una risatina il mio commento, non mi potevo certo aspettarfe altro che una ghignata da te.

Devi sapere DioBrando, che Win64 bit avrà molto più futuro di Linux nei giochi e quindi è SAGGIO sviluppare driver per Win64 bit. Ma tu non guardi avanti

Mason
29-11-2004, 10:42
si anche io l'avevo visto su lkml,effetivamente dubito anche io possa concretizzarsi, pero se la facessero e accelerebbe qualcosa di piu di rettangoli penso la prenderei, e cmq dubitavo che ne avrei ancora sentito parlare.

Vediamo se e un fuco di paglia

ilsensine
29-11-2004, 11:01
Originariamente inviato da Mason
si anche io l'avevo visto su lkml,effetivamente dubito anche io possa concretizzarsi, pero se la facessero e accelerebbe qualcosa di piu di rettangoli penso la prenderei, e cmq dubitavo che ne avrei ancora sentito parlare.

Vediamo se e un fuco di paglia
Se uscisse fuori, sarei il primo a comprarla (anche se costasse il doppio rispetto a una ATI/nvidia a partità di prestazioni).

Però dubito che con un FPGA possano ottenere qualcosa di competitivo. Tieni conto che ATI/nvidia progettano hw 3d dalla mattina alla sera, non sarà facile creare un prodotto anche vagamente competitivo con loro. Strategie errate nel mondo 3d si pagano care, la 3dfx ne sa qualcosa...

La parola ora è a loro, vediamo cosa sono in grado di fare.

Duncan
29-11-2004, 11:03
Originariamente inviato da Wonder
Linux? LINUUUUX? Sarebbe meglio si buttassero su quelli a 64 bit che è meglio e farebbero felici più persone.

E secondo te non li stanno già sviluppando?

Il fatto che non siano disponibili non dimostra che non li stiano sviluppando, qando uscirà Win64 sapremo se esistono...

Mentre Linux esiste, anche se rappresenta un piccola quota del mercato Desktop, ed è necessario che diano un supporto decente ai LORO clienti che fanno scelte diverse, i soldi li hanno spesi come quelli che usano windows... o no? ;)

MiKeLezZ
29-11-2004, 11:23
Cavolo ce sta la news che dice che ati vuol impegnarsi di più, ha TRIPLICATO il personale ecc
E tutti i commentini stupidi "e ma ati suka in linux" "ati me fa caca' " "driver liberi per popolo libero" "linux powaa" "facciamo la revolucion!embargo a ati!!!" ..
ao' e svegliatevi
se vi fa caca' ati pigliate nvidia
se vi fa caca' win usate linux
ma non rompite agli altri
ed intanto gioite che sembra stiano impegnandosi e ringraziate dio che al giorno d'oggi abbiamo ancora possibilità di scelta, seppur limitata

ciop71
29-11-2004, 11:29
Non credo che da un giorno all'altro ci possano essere enormi miglioramenti, ci vorrà parecchio tempo per recuperare il tempo perduto, almeno diversi mesi.
Uno dei motivi che mi ha spinto a cambiare la 9800pro con una Nvidia è stato proprio il pietoso stato di sviluppo dei driver, e non solo per i giochi.

ilsensine
29-11-2004, 11:29
Originariamente inviato da MiKeLezZ
<rant>
Quindi secondo te nessuno ha il diritto di dire la propria opinione?

Conosci la "variegata" storia dei rapporti tra ATI e linux? Oppure ti sei svegliato 5 minuti fa?


se vi fa caca' ati pigliate nvidia

Cosa che _io_ e _altri_ consigliamo da tempo.
E ciò nonostante, è proprio perché rivendichiamo un diritto di _scelta_ che siamo qui a blaterare.

Wonder
29-11-2004, 11:29
Certo che lo so...li sto usando a casa! Ma fanno pena e spererei in un supporto migliore.

Cmq i giochi erano per DOS, poi per Win 95 poi per Win XP e in un futuro saranno per Win 64 quindi è lì che punterei io.

marcowave
29-11-2004, 11:32
Bello!

Io sul mio PC home ho cambiato da ATI a nVIDIA sono per il supporto linux... e ora sono pienamente soddisfatto dopo che ho giocato a doom3 e ut2004 in linux praticamente con le stesse prestazioni win :D (ovviamente in OpenGL)

MA sul mobile ho una 9700 e ho visto miglioramenti con le ultime release, ma ci sono ancora una marea di problemi.. come artefatti, low fps, no tv-out, no supporto a xorg 6.8

nel forum di Gentoo Linux mi hanno detto che a dicembre sarebbe dovuta uscire una nuova release (magari 4.0, sono ancora fermi ai catalyst 3.14 in linux :( ) che avrebbe migliorato di molto la situazione
Speriamo bene....

vedremo..

Duncan
29-11-2004, 12:02
Originariamente inviato da Wonder
Certo che lo so...li sto usando a casa! Ma fanno pena e spererei in un supporto migliore.


Se usi un So nemmeno uscito ufficialmente e speri fin da ora di avere un supporto migliore... :D

Aspetta che esca ufficialemte Win64 Bit

Gli unici che hanno diritto a lamentarsi per la mancanza di driver a 64 bit per i loro sistemi sono gli utenti Linux, nvidia ed ati ;)

Il SO ormai è uscio da tempo e non è che ci facciano una gran figura questi produttori con lo scarso supporto che danno... :rolleyes:

ilsensine
29-11-2004, 12:05
Originariamente inviato da Duncan
Gli unici che hanno diritto a lamentarsi per la mancanza di driver a 64 bit per i loro sistemi sono gli utenti Linux, nvidia ed ati ;)

Mi sembra che i driver nvidia a 64 bit per linux ci siano da un pò...

fek
29-11-2004, 12:18
Originariamente inviato da ilsensine
Mi sembra che i driver nvidia a 64 bit per linux ci siano da un pò...

Anche i Win64 NVIDIA ci sono da piu' di un anno.

Duncan
29-11-2004, 12:20
Originariamente inviato da ilsensine
Mi sembra che i driver nvidia a 64 bit per linux ci siano da un pò...



Errore mio ;)

fek
29-11-2004, 12:45
Originariamente inviato da ginojap
Nell'articolo leggo che gli utenti linux sono solo l'1,3%, puo' essere, ma e' anche vero che non c'e' modo di censirli tutti visto che e' un s.o. che si puo' avere anche senza acquistarlo in negozio e non vi sono procedure obbligatorie di registrazione.


Oh si' che c'e' modo di avere un'idea molto precisa degl'utenti linux di VG. Basta contare quante copie di giochi per linux sono state vendute e confrontarle con le copie per Windows.
E' dell'ordine di 1 contro 10.000 (o poco piu').

HexDEF6
29-11-2004, 12:58
Originariamente inviato da fek
Oh si' che c'e' modo di avere un'idea molto precisa degl'utenti linux di VG. Basta contare quante copie di giochi per linux sono state vendute e confrontarle con le copie per Windows.
E' dell'ordine di 1 contro 10.000 (o poco piu').

come conti i vari quake3, ut, ut2003, ut2004, enemy territory, RTCW, doom3, dove esiste solo la copia per win e ti scarichi i binari per linux o i binari per linux sono sullo stesso cd/dvd di quelli per win? (e' una domanda!)

mackillers
29-11-2004, 12:58
sono passato a linux da poco ed ho una 9600xt ma a parte i giochi non ho problemi! Speriamo che i driver migliorino perchè non ho voglia di ricomprare skeda per almeno un anno!

fek
29-11-2004, 13:11
Originariamente inviato da HexDEF6
come conti i vari quake3, ut, ut2003, ut2004, enemy territory, RTCW, doom3, dove esiste solo la copia per win e ti scarichi i binari per linux o i binari per linux sono sullo stesso cd/dvd di quelli per win? (e' una domanda!)

Le statistiche che ho letto io su MCV (una rivista inglese del settore) contavano anche le copie dell'exe per linux scaricate.

zago
29-11-2004, 13:13
è lo stesso mio problema

io non ho capito dove stà il prolema per avere una benchè
minimo di accellerazione 3d sotto linux

HexDEF6
29-11-2004, 13:15
Originariamente inviato da fek
Le statistiche che ho letto io su MCV (una rivista inglese del settore) contavano anche le copie dell'exe per linux scaricate.

quindi la statistica e' "spannometrica" ma abbastanza reale (cioe' potrebbe essere anche 1 a 5000 o 1 a 20000) ma comunque e' quello l'ordine di grandezza...
Grazie!

DioBrando
29-11-2004, 13:18
Originariamente inviato da Wonder
NOn mi stupisce che tu abbia commentato con una risatina il mio commento, non mi potevo certo aspettarfe altro che una ghignata da te.

è che non hai capito l'ironia del msg.
Fà niente sarà per la prox volta :D


Devi sapere DioBrando, che Win64 bit avrà molto più futuro di Linux nei giochi

se non ci fossi stato tu a dirmelo non l'avrei mai sospettato :rotfl:


e quindi è SAGGIO sviluppare driver per Win64 bit. Ma tu non guardi avanti

rileggiti le risposte di Duncan e avrai capito il mio msg ;)

è saggio sviluppare, ma non è saggio chiedere ora d'avere drivers definitivi per una release che ancora è tutt'altro che pronta, come hai fatto tu lamentandoti.

Sn molte di + le persone che LAVORANO su linux di quelle che lo fanno su una versione Beta-XXXX di Win64, su hardware che è da mesi disponibile e da altrettanti mesi non vedono miglioramenti significativi nelle release fornite da ATI.
Loro quindi hanno ragione di esprimere tutto il proprio disappunto, tu IMO no.


P.S.: ma non mi avevi messo in ignore list? :D
Ci hai ripensato? Paura di non vedere i miei msg e di essere commentato senza poter rispondere? :asd:



Saluti ;)

WarDuck
29-11-2004, 13:20
Io m'ero scaricato uno script tempo fa che installava i drivers ATi sotto Xorg... nn ho mai capito se ha funzionato o meno lol, sono niubbo per certe cose sotto Linux.

Cmq senza girarci troppo intorno siamo davanti ad uno dei punti di forza dell'odiato (da chi lo vuole odiare a tutti i costi per dei principi che nn si so capiti bene quali sono) Windows.

FuocoNero
29-11-2004, 13:22
I driver a 64bit per Linux sono attualmente molto più importanti visto che Linux supporta _ora_ questa architettura e che l'unico gioco compilato a 64bit esistente sul mercato è in versione Linux (UT2K4).

Per il futuro non discuto che Win64 sarà certamente più importante da supportare secondo le leggi economiche ma in questo momento (e nell'ultimo anno e mezzo) la realtà a 64bit è Linux.

Di Win64 parleremo se_e_quando uscirà, per ora la realtà è un'altra :)

AnonimoVeneziano
29-11-2004, 13:27
Basterebbe solo che mollassero quelle maledette specifiche e potrebbero mandarli anche tutti a casa quegli sviluppatori...

Duncan
29-11-2004, 13:41
Originariamente inviato da WarDuck
[CUT]

Cmq senza girarci troppo intorno siamo davanti ad uno dei punti di forza dell'odiato (da chi lo vuole odiare a tutti i costi per dei principi che nn si so capiti bene quali sono) Windows.

Principi quali la libertà? Ma forse non è per tutti ugualmente importante ;)

Wonder
29-11-2004, 13:43
Infatti ci sei nella ignore list, ma funzia solo dal forum e non dalle news nella homepage del sito. Provvedete per favore, non lo reggo più sto qua

DioBrando
29-11-2004, 14:02
Originariamente inviato da Wonder
Infatti ci sei nella ignore list, ma funzia solo dal forum e non dalle news nella homepage del sito. Provvedete per favore, non lo reggo più sto qua

:ot:

poaretto sto toso Wonder :D


ma se dici delle "sciocchezze" non è mica colpa mia.
Eviti ed eviterai risposte in merito.
Iz simpol :D


dai su n te la prendere in fondo è un gioco ( e poi si impara tutti qlc, me compreso)
;)

Mad Penguin
29-11-2004, 14:13
direi che per come è messa ora puo solo migliorare :D

BigPincer
29-11-2004, 14:24
Finalmente si sono svegliati. Mi sono stancato di rimbecillirmi per cercare di installare quei driver sulla debian per poi scoprire che tanto non riescono a farci girare decentemente quasi nulla.
Ed è per questo motivo che la mia prox scheda video sarà una nvidia. Solo per il suporto linux.
Almeno una scheda sono contento di avergliela fatta perdere.

Tasslehoff
29-11-2004, 14:49
Originariamente inviato da Manwë
Non che quelli per Windows siano eccezionali ... Sinceramente non mi pare di aver mai visto un solo pc con scheda video Ati che abbia avuto un solo problema legato ai drivers... non vedo come ci si possa lamentare dalla qualità dei catalyst...
Credo sia da più di un anno che Ati sta dimostrando grandissimo impegno nei drivers x win, molto più di Nvidia, non vedo di cosa ci si possa lamentare...

fek
29-11-2004, 14:52
Originariamente inviato da Duncan
Principi quali la libertà? Ma forse non è per tutti ugualmente importante ;)

Ripeto che non mi sembra nessuno vi stia puntando la pistola alla tempia costringendovi a usare WinXP.

Bah, sindrome da Wallace dei poveri.

Duncan
29-11-2004, 15:49
Originariamente inviato da fek
Ripeto che non mi sembra nessuno vi stia puntando la pistola alla tempia costringendovi a usare WinXP.

Bah, sindrome da Wallace dei poveri.

Scusa, ma la licenza di windows l'ho letta, (l'ho anche comprato), e di libertà ne da poche...

La libertà a cui mi riferisco io è la libertà di scelta su come usare il software comprato... non su cosa installare ;)

Almeno io la mia scelta l'ho fatta informandomi alcuni qui parlano per sentito dire, o solo perchè hanno usato esclusivamente un sistema e si sentono offesi se si fa qualche critica...

S3N
29-11-2004, 15:55
Originariamente inviato da AnonimoVeneziano
Basterebbe solo che mollassero quelle maledette specifiche e potrebbero mandarli anche tutti a casa quegli sviluppatori...


Se non sbaglio un dirigente/manager della ATI tempo fa disse che neanche per scongiurare una guerra termonucleare lo avrebbero fatto. :D

ilsensine
29-11-2004, 15:59
Originariamente inviato da S3N
Se non sbaglio un dirigente/manager della ATI tempo fa disse che neanche per scongiurare una guerra termonucleare lo avrebbero fatto. :D
(link?)
Quelle persone capiscono solo una lingua, torno a ripeterlo...

S3N
29-11-2004, 16:14
Originariamente inviato da ilsensine
(link?)
Quelle persone capiscono solo una lingua, torno a ripeterlo...


Non è un link superufficiale, se è una bufala prenditela con fek. :O

Link (http://forum.hwupgrade.it/showthread.php?s=&postid=6118198#post6118198)

ilsensine
29-11-2004, 16:16
Originariamente inviato da S3N
Non è un link superufficiale, se è una bufala prenditela con fek. :O

Link (http://forum.hwupgrade.it/showthread.php?s=&postid=6118198#post6118198)
Bene, prendo nota.

No perché una certa "xig" le specifiche le ha avute.

Aggiungo all'elenco di cose che ho personalmente in sospeso con ATI.

ph03nixsk
29-11-2004, 17:54
Originariamente inviato da ginojap
P.S. (Con Unreal tournament 2004 e' la prima volta che vedo un'installazione facile quanto windows su linux !!!)

anche l'installazione dei drivers della Samsung ML-1510 USB è simile a Windows, con tanto di interfaccia grafica e Co... e se mi è funzionata senza problemi con X.org e slackware.. buona installazione a tutti


ATI dovrebbe svegliarsi un bel po'.. io con la mia umilissima 9000VIVO, su slack10 e X.org.. mi attacco al tram sia per il 3D che per il VideoIn/VideoOut (l'ò comprata per questo la scheda, anche se all'epoca non mi interessava usarla sotto Linux)

se risolvessi questi problemi mooolto probabilmente abbandonerei Windows..

saluti a tutti!

krokus
29-11-2004, 18:06
Originariamente inviato da ilsensine
Aggiungo all'elenco di cose che ho personalmente in sospeso con ATI.

:mad:
Io sono ancora qui che starei aspettando uno straccio di supporto 3D per la vecchia Radeon 7500.
Quando ne ero possessore, i driver DRI opensource supportavano solo fino alla 7000, i driver Ati partivano dalla 8500 in su.....e la povera 7500 era nel limbo di mezzo...
Ora sono felice possessore di Geforce 4200, che funzia alla grandissima con Windows, Linux e FreeBSD.

Alla faccia di Ati.
:fuck:

marcowave
29-11-2004, 19:30
Originariamente inviato da krokus
:mad:
Io sono ancora qui che starei aspettando uno straccio di supporto 3D per la vecchia Radeon 7500.
Quando ne ero possessore, i driver DRI opensource supportavano solo fino alla 7000, i driver Ati partivano dalla 8500 in su.....e la povera 7500 era nel limbo di mezzo...
Ora sono felice possessore di Geforce 4200, che funzia alla grandissima con Windows, Linux e FreeBSD.

Alla faccia di Ati.
:fuck:

è vero la 7500 è l'unica scheda non supportata dai drivers per l'accelerazione 3D.. che beffa :mad:

cmq io spero che migliorino davvero di molto il supporto per le nuove schede..

ilsensine
29-11-2004, 19:44
Originariamente inviato da marcowave
è vero la 7500 è l'unica scheda non supportata dai drivers per l'accelerazione 3D.. che beffa :mad:

Ora i driver DRI la supportano...già da un pezzo cmq...

joe4th
29-11-2004, 21:14
Originariamente inviato da marcowave
è vero la 7500 è l'unica scheda non supportata dai drivers per l'accelerazione 3D.. che beffa :mad:

cmq io spero che migliorino davvero di molto il supporto per le nuove schede..

Veramente con Xorg 6.7.0 sono supportate tutte le
ATI in DRI fino alla 9200. Provata da poco una 9200
con una distribuzione Linux a 64bit: tuxracer funziona
benissimo!

Ciao.

krokus
30-11-2004, 00:23
Originariamente inviato da ilsensine
Ora i driver DRI la supportano...già da un pezzo cmq...

Sì, parlavo di più di due anni fa. Ufficialmente il supporto c'era nella lista del DRI, all'atto pratico non ha mai funzionato sulla mia scheda, e da notare che Mandrake la indicava esplicitamente come non supportata. Ho provato diverse distribuzioni, ho provato a compilare il tutto a mano, ma alla fine ho gettato la spugna quando ho visto che molti avevano lo stesso problema.
Anche perchè venivo da una situazione identica con la vecchia Savage4 di S3.....niente accelerazione 3D, quando c'erano programmatori che invece si accanivano ancora sulla Virge....
insomma, mi ero davvero rotto le scatole!

cdimauro
30-11-2004, 09:29
OK, Ati non rilascia le specifiche delle sue GPU, ma tutte le altre case (nVidia, Via/S3, SIS/Xabre, ecc.) lo fanno?

ilsensine
30-11-2004, 09:37
Originariamente inviato da cdimauro
OK, Ati non rilascia le specifiche delle sue GPU, ma tutte le altre case (nVidia, Via/S3, SIS/Xabre, ecc.) lo fanno?
Alcune sì, alcune no, altre ni. Altre finanziano direttamente la produzione di driver DRI (Intel).

La ATI a differenza di nvidia si è fatta apprezzare per il comportamento particolarmente scorretto e diverse ambiguità. nvidia, oltre a un comportamento molto più corretto, si è fatta invece apprezzare per una attiva e costruttiva collaborazione nello sviluppo del kernel.

fek
30-11-2004, 10:30
Originariamente inviato da Duncan
La libertà a cui mi riferisco io è la libertà di scelta su come usare il software comprato... non su cosa installare ;)


Non compri il software, compri la licenza d'uso del software alle condizioni che accetti nel momento in cui apri il pacchetto (come indicato sulla busta). Se non accetti le condizioni, se non sono di tuo gradimento, non acquisti la licenza ed hai la liberta' di rivolgerti a qualunque altro software.

fek
30-11-2004, 10:36
Originariamente inviato da ilsensine
Bene, prendo nota.

No perché una certa "xig" le specifiche le ha avute.

Aggiungo all'elenco di cose che ho personalmente in sospeso con ATI.

Ragazzi, seriamente, e' perfettamente logico che ne' ATI ne' NVIDIA rilascino le specifiche delle loro GPU, vista l'altissima competizione che c'e' nel mercato, ed il grado di sofisticatezza delle soluzione. E anche se le rilasciassero, non ci sarebbe alcun modo che una comunita' open source possa produrre driver migliori di quello che possano produrre gli IHV che hanno progettato quell'hardware. Non e' uno scanner.

Ma voi pensate che non rilasciano neppure i performance counter interni a noi e sotto NDA e volete che rilascino le specifiche?

ilsensine
30-11-2004, 10:50
Originariamente inviato da fek
Ragazzi, seriamente, e' perfettamente logico che ne' ATI ne' NVIDIA rilascino le specifiche delle loro GPU, vista l'altissima competizione che c'e' nel mercato, ed il grado di sofisticatezza delle soluzione.
Stessa storia che girava ai tempi della r200. Poi è successo "qualcosa" che ha costretto ATI a divulgare buona parte delle specifiche. Senza il minimo danno nella loro competizione con nvidia.

E anche se le rilasciassero, non ci sarebbe alcun modo che una comunita' open source possa produrre driver migliori di quello che possano produrre gli IHV che hanno progettato quell'hardware. Non e' uno scanner.
Non vogliamo dei driver migliori, vogliamo dei driver liberi. Ma è un discorso che chi non ci sta dentro non può capire.

Ikitt_Claw
30-11-2004, 10:52
Originariamente inviato da fek
Ragazzi, seriamente, e' perfettamente logico che ne' ATI ne' NVIDIA rilascino le specifiche delle loro GPU, vista l'altissima competizione che c'e' nel mercato, ed il grado di sofisticatezza delle soluzione. [...]

Perfettamente d'accordo tranne che su un punto: mi manca il "e` perfettamente logico". Perche` davvero non arrivo a capire (ripeto: limite mio e non sono ironico) come il sapere che immettere 0xdeadbeef nel registro 42 attiva la modalita` TazziMazzi, per dire, possa avvantaggiare la concorrenza.
Mi mancano un paio di passaggi insomma, perche` il ragionamento che fanno nVidia/ATI/altri sarebbe come dire che sapere nel dettagli com'e` fatta l'interfaccia di un determinato componente e` praticamente come conoscerne la struttura interna. E, ripeto, non mi torna affatto.

Io e te se ne e` gia` parlato in qualche thread passato di questo tema, questa non e` una domanda specificatamente rivolta a te, ma di carattere generale. Se qualcuno puo` riuscire a dirimere questo dilemma, fara` felice piu` di una persona credo. Della serie "almeno so perche` e mi metto l'anima in pace".

Inciso: secondo me il non rilasciare specifiche/driver full open e` una questione commerciale, (molto) piu` che tecnica

Duncan
30-11-2004, 11:00
Originariamente inviato da fek
Non compri il software, compri la licenza d'uso del software alle condizioni che accetti nel momento in cui apri il pacchetto (come indicato sulla busta). Se non accetti le condizioni, se non sono di tuo gradimento, non acquisti la licenza ed hai la liberta' di rivolgerti a qualunque altro software.

ok, ma l'hai letto perchè ho dato la quella risposta a WarDuck?

Ho dato un motivo che mi ha portato a fare altre scelte, se poi vogliamo contnuare a scornarci su cose scontate ;)

fek
30-11-2004, 11:09
Originariamente inviato da ilsensine
Non vogliamo dei driver migliori, vogliamo dei driver liberi. Ma è un discorso che chi non ci sta dentro non può capire.

Infatti non lo capisco perche' io voglio solo driver (e software in generale) che funzionino.

Originariamente inviato da Ikitt_Claw
Perfettamente d'accordo tranne che su un punto: mi manca il "e` perfettamente logico". Perche` davvero non arrivo a capire (ripeto: limite mio e non sono ironico) come il sapere che immettere 0xdeadbeef nel registro 42 attiva la modalita` TazziMazzi, per dire, possa avvantaggiare la concorrenza.
Mi mancano un paio di passaggi insomma, perche` il ragionamento che fanno nVidia/ATI/altri sarebbe come dire che sapere nel dettagli com'e` fatta l'interfaccia di un determinato componente e` praticamente come conoscerne la struttura interna. E, ripeto, non mi torna affatto.


Perche' non rilasciano alcuna informazione che possa dare una qualche idea dell'architettura del chip. L'interfaccia e' molto sensibile da questo punto di vista. Poi ci sono dettagli come il linguaggio assembly interno del motore degli shader, e' un dettaglio che il driver deve conoscere per compilare uno shader opengl (ad esempio) in istruzioni che la gpu possa eseguire. Da tutte queste informazioni e' un giochino risalire all'architettura del motore di shader, ad esempio, e trarne idee per migliorare la propria soluzione hardware.
E' assurdo anche solo pensare che rilasceranno mai queste informazioni (e no, l'R200 non e' complesso come l'R300 ed hanno solo rilasciato una parte delle specifiche ad anni di distanza).

Pensa che un giorno ho chiesto di avere accesso ad un counter che mi dicesse quanti cicli di clock sono spesi nello shader all'esecuzione di una primitiva. Mi serviva per ottimizzare uno shader. Mi hanno risposto picche (e noi siamo sotto NDA e supportati da ATI).


Inciso: secondo me il non rilasciare specifiche/driver full open e` una questione commerciale, (molto) piu` che tecnica

Si', e' solo una questione commerciale.

Ikitt_Claw
30-11-2004, 11:18
Originariamente inviato da fek
Infatti non lo capisco perche' io voglio solo driver (e software in generale) che funzionino.
Eh, e altri no. Ognuno si fa del male come vuole ;)

Poi ci sono dettagli come il linguaggio assembly interno del motore degli shader, e' un dettaglio che il driver deve conoscere per compilare uno shader opengl (ad esempio) in istruzioni che la gpu possa eseguire. Da tutte queste informazioni e' un giochino risalire all'architettura del motore di shader, ad esempio,
Ferma ferma ferma ferma.
Risolto un problema ne nasce un'altro, perche` qui non si spiega (meglio: non mi spiego) come dalle istruzioni assembler si possa risalire all'implementazione del processore. Posso sapere (e questo me lo dice anche la doc, pero`) che tali istruzioni sono eseguite in maniera piu` o meno efficiente, ma tanto piacere. Come questo mi avvantaggia?
Si potrebbe allora dire che traminte la documentazione tecnica di amd riguardo ad amd64 (liberamente scaricabile dal sito) che dettaglia anche in profondita` quali istruzioni e` preferibile utilizzare e com'e` meglio organizzare il codice si puo` risalire con precisione alla realizzazione interna?
A me ora come ora pare assai improbabile :confused:
(ma non sto insinuando nulla, vorrei appunto capire)

Aperta e chiusa parentesi: vivendo nel mondo fantastico dei se e delle ipotesi, si potrebbe comunque usare un'approccio misto open/closed come faceva matrox ai tempi, con rilascio di specifiche parziali e di un modulo binary-only per certe caratteristiche avanzate, in questo caso potrebbe essere cosi` per gli shader.

(snip sul counter, avevo gia` letto)

Si', e' solo una questione commerciale.
Lo pensi davvero o lo dici ironicamente? :confused:

ilsensine
30-11-2004, 11:19
Originariamente inviato da fek
Infatti non lo capisco perche' io voglio solo driver (e software in generale) che funzionino.

Tu vieni da un ambiente diverso.
Chi usa OSS lo fa perché il principio del "basta che funziona" non lo ritiene soddisfacente.
Non sarebbe mai nato il software libero se il "basta che funziona" fosse stato sufficiente per tutti.

(nota che non è una questione "filosofica": nel mio lavoro la disponibilità dei sorgenti, e la libertà di poterli usare per ogni scopo, è di enorme importanza pratica)

Ikitt_Claw
30-11-2004, 11:21
Originariamente inviato da ilsensine
Non sarebbe mai nato il software libero se il "basta che funziona" fosse stato sufficiente per tutti.


Beh, se il "basta che funzioni" fosse stato possibile anche per la famosa stampante del MIT con cui aveva a che fare Stallman... :sofico:

riformulato in italiano migliore

ilsensine
30-11-2004, 11:26
Originariamente inviato da fek
Poi ci sono dettagli come il linguaggio assembly interno del motore degli shader
Immagino se Intel avesse fatto lo stesso ragionamento...

Pensa che un giorno ho chiesto di avere accesso ad un counter che mi dicesse quanti cicli di clock sono spesi nello shader all'esecuzione di una primitiva. Mi serviva per ottimizzare uno shader. Mi hanno risposto picche (e noi siamo sotto NDA e supportati da ATI).
Oh un bell'esempio della consistenza dei "segreti" che vogliono mantenere :rolleyes:
Questo dovrebbe renderti l'idea meglio di chiunque altro di che razza di mentalità circoli dentro ATI

fek
30-11-2004, 11:39
Originariamente inviato da Ikitt_Claw
Ferma ferma ferma ferma.
Risolto un problema ne nasce un'altro, perche` qui non si spiega (meglio: non mi spiego) come dalle istruzioni assembler si possa risalire all'implementazione del processore. Posso sapere (e questo me lo dice anche la doc, pero`) che tali istruzioni sono eseguite in maniera piu` o meno efficiente, ma tanto piacere. Come questo mi avvantaggia?


Esempio banale, la realta e' piu' complessa: se io leggo che il motore degli shader di ATI e' in grado di eseguire l'istruzione di normalizzazione di un vettore ma solo in precisione parziale, ho due interessanti informazioni sull'hardware:
1) hanno un'unita' di normalizzazione per ogni pipeline
2) l'unita' esegue solo calcoli in precisione parziale

Da quest'informazione posso lanciare qualche simulazione e accorgermi che effettivamente molti shader userebbero quest'istruzione e visto che sto passando a piena precisione, posso spendere qualche transistor in piu' in un'unita' di normalizzazione full precision, ricavando un vantaggio sulla concorrenza.

Sto inventando, e' solo un esempio, perche' l'R3X0 non ha un'unita' di normalizzazione (l'NV4X si').

Ma ripeti questo ragionamento per qualunque informazione che puoi ricavare dalle specifiche ed e' chiaro il perche' non le rilasceranno mai.


Si potrebbe allora dire che traminte la documentazione tecnica di amd riguardo ad amd64 (liberamente scaricabile dal sito) che dettaglia anche in profondita` quali istruzioni e` preferibile utilizzare e com'e` meglio organizzare il codice si puo` risalire con precisione alla realizzazione interna?
A me ora come ora pare assai improbabile :confused:
(ma non sto insinuando nulla, vorrei appunto capire)


Va detto che CPU e GPU sono molto differenti, una GPU e' decisamente piu' complessa di una CPU, infatti gira a frequenze inferiori.


Aperta e chiusa parentesi: vivendo nel mondo fantastico dei se e delle ipotesi, si potrebbe comunque usare un'approccio misto open/closed come faceva matrox ai tempi, con rilascio di specifiche parziali e di un modulo binary-only per certe caratteristiche avanzate, in questo caso potrebbe essere cosi` per gli shader.

Se fosse economicamente conveniente si', ma non vedo alcun vantaggio in quest'approccio, se non una complicazione a livello architetturale.


Lo pensi davvero o lo dici ironicamente? :confused:

Lo penso davvero, e' solo una questione economica e commerciale.

fek
30-11-2004, 11:41
Originariamente inviato da ilsensine
Tu vieni da un ambiente diverso.
Chi usa OSS lo fa perché il principio del "basta che funziona" non lo ritiene soddisfacente.
Non sarebbe mai nato il software libero se il "basta che funziona" fosse stato sufficiente per tutti.

(nota che non è una questione "filosofica": nel mio lavoro la disponibilità dei sorgenti, e la libertà di poterli usare per ogni scopo, è di enorme importanza pratica)

Si', io vengo dall'ambiente in cui alla fine del mese devo consegnare una milestone, e se non la consegno il publisher non paga e io non prendo i soldi dello stipendio.

Capirai che in questo ambiente mi interessa poco se qualcosa e' open source o meno, mi interessa che funzioni al meglio possibile, e mi rallenti il meno possibile, perche' io alla fine del mese devo pagare l'affitto ed ho bisogno dello stipendio.

Perche' sono tutti bravi a fare i moralisti e le guerre di religione con i soldi degl'altri, mentre noi programmatori siamo pragmatici ed abbiamo altro di meglio da fare che lottare contro un driver open source che non si installa.

fek
30-11-2004, 11:42
Originariamente inviato da ilsensine
Oh un bell'esempio della consistenza dei "segreti" che vogliono mantenere :rolleyes:
Questo dovrebbe renderti l'idea meglio di chiunque altro di che razza di mentalità circoli dentro ATI

La stessa mentalita' di NVIDIA. Prova a chiedere a NVIDIA una versione debug dei loro driver e vedi che cosa ti rispondono (ci ho provato, le ho provate tutte per avere i simboli di quel maledetto driver).

ilsensine
30-11-2004, 11:48
Originariamente inviato da fek
Esempio banale, la realta e' piu' complessa[...]
Puoi avere solo indicazioni generice, il succo del discorso (e dove giace l'IP) è _come_ gli ingegneri ATI hanno fisicamente implementato il tutto.

Va detto che CPU e GPU sono molto differenti, una GPU e' decisamente piu' complessa di una CPU, infatti gira a frequenze inferiori.
La "complessità" è un parametro di valutazione volatile.
Anche la r200, ai suoi tempi, era "decisamente più complessa" di una r128.
Anche una voodoo3 (una delle schede più documentate) era "decisamente più complessa" di una s3 del suo tempo.

ilsensine
30-11-2004, 11:54
Originariamente inviato da fek
La stessa mentalita' di NVIDIA. Prova a chiedere a NVIDIA una versione debug dei loro driver e vedi che cosa ti rispondono (ci ho provato, le ho provate tutte per avere i simboli di quel maledetto driver).
Lo so bene, ma la nvidia ha un atteggiamento molto diverso rispetto ad ATI nei confronti di linux.
Primo, ci supportano da quando nessuno avrebbe scommesso una virgola su linux+3d. Secondo, collaborano diverse volte con gli spiluppatori di codice libero per ciò che non riguarda l'hw delle loro schede (giusto come esempio, nessuno ha mai chiesto loro di condividere questa (http://marc.theaimsgroup.com/?l=linux-kernel&m=108180930118848&w=2) proposta).

Non condivido la loro "chiusura" riguardo le schede video, ma almeno hanno saputo guadagnarsi il rispetto di chi non la pensa come loro.

Invece ho duvuto leggere i commenti frustrati di sviluppatori che lavoravano schede ATI, riguardo fesserie che la ATI non voleva documentare (non sto parlando di 3d, ma cose tipo "effettuare il reset della scheda" oppure "attivare l'uscita TV).

fek
30-11-2004, 11:55
Originariamente inviato da ilsensine
Puoi avere solo indicazioni generice, il succo del discorso (e dove giace l'IP) è _come_ gli ingegneri ATI hanno fisicamente implementato il tutto.


Per favore, sensine, non parlare di cose che non sai ora. Il succo del discorso non e' come hanno fisicamente implementato il tutto, il succo del discorso e' se quell'unita' c'e' o non c'e'. Capirai che "vivo" in quest'ambiente da anni, so come girano le cose e so che cos'e' importante in una GPU o no.

ilsensine
30-11-2004, 11:56
Originariamente inviato da fek
Si', io vengo dall'ambiente in cui alla fine del mese devo consegnare una milestone, e se non la consegno il publisher non paga e io non prendo i soldi dello stipendio.

Lo stesso per me, se non posso mettere mano ai sorgenti del kernel a fine mese non ci arrivo. E il boss non è contento.

fek
30-11-2004, 12:02
Originariamente inviato da ilsensine
Puoi avere solo indicazioni generice, il succo del discorso (e dove giace l'IP) è _come_ gli ingegneri ATI hanno fisicamente implementato il tutto.

La "complessità" è un parametro di valutazione volatile.
Anche la r200, ai suoi tempi, era "decisamente più complessa" di una r128.
Anche una voodoo3 (una delle schede più documentate) era "decisamente più complessa" di una s3 del suo tempo.

Ho paragonato la complessita' di una GPU odierna con quella di una CPU odierna, non di cinque anni fa.

Originariamente inviato da ilsensine
Lo so bene, ma la nvidia ha un atteggiamento molto diverso rispetto ad ATI nei confronti di linux.


NVIDIA ha fatto valutazioni diverse sul supporto di linux (che io non condivido, ma questo e' un altro discorso) e ben venga. Ma tacciare ATI di chissa' quale crimine contro l'umanita' perche' non rilascia le specifiche della sua GPU in nome di un "bene superiore", mi sembra un po' infantile. Fanno semplicemente i loro interessi e nei loro interessi non rientra una piattaforma che rappresenta meno dell'1% del loro mercato.

Se tu investissi i tuoi soldi spenderesti per supportare meno dell'1% del tuo mercato o per supportare il 99%? Conosco la tua risposto e so che non e' cio' che faresti con i tuoi soldi.

Ikitt_Claw
30-11-2004, 12:03
Originariamente inviato da fek
Capirai che in questo ambiente mi interessa poco se qualcosa e' open source o meno, mi interessa che funzioni al meglio possibile, e mi rallenti il meno possibile, perche' io alla fine del mese devo pagare l'affitto ed ho bisogno dello stipendio.

Perche' sono tutti bravi a fare i moralisti e le guerre di religione con i soldi degl'altri, mentre noi programmatori siamo pragmatici ed abbiamo altro di meglio da fare che lottare contro un driver open source che non si installa.

Evitando, se possibile, di tirare fuori il solito luogo comune "l'open source e` buono solo per i filosofi da due soldi che non lavorano"...

[edit] corretto refuso[/edit[

fek
30-11-2004, 12:04
Originariamente inviato da ilsensine
Lo stesso per me, se non posso mettere mano ai sorgenti del kernel a fine mese non ci arrivo. E il boss non è contento.

Perfetto, abbiamo esigenze diverse. Ma tu l'avevi messa sul religioso dicendo che io "non posso capire".
Lo capisco eccome, e proprio perche' capisco l'open source me ne sto ben alla larga, perche' nel mio lavoro e' deleterio.

Ikitt_Claw
30-11-2004, 12:12
Originariamente inviato da fek
Esempio banale, la realta e' piu' complessa: se io leggo che il motore degli shader di ATI e' in grado di eseguire l'istruzione di normalizzazione di un vettore ma solo in precisione parziale, ho due interessanti informazioni sull'hardware:
1) hanno un'unita' di normalizzazione per ogni pipeline
2) l'unita' esegue solo calcoli in precisione parziale

Da quest'informazione posso lanciare qualche simulazione e accorgermi che effettivamente molti shader userebbero quest'istruzione e visto che sto passando a piena precisione, posso spendere qualche transistor in piu' in un'unita' di normalizzazione full precision, ricavando un vantaggio sulla concorrenza.

A parte il fatto che mi aspetterei che questi calcoli siano fatti prima di lanciare un prodotto sul mercato, specie nel caso di GPU, specie nel caso di ati/nvidia,
continuo a non vedere differenze significative con caso delle CPU o, per dirla tutta, di (quasi) qualunque processore. Mi viene in mente anche il discorso delle prime implementazioni 3dnow che, se ben ricordo, potevano far calcoli solo in precisione singola al contrario delle prime sse. Mi chiedo se sapere questo fatto, oltretutto appunto documentato, abbia avvantaggiato intel nella creazione di SSE, e se si come. Ma sto forse divagando e oltretutto non son nemmeno tanto ferrato su questo campo.

Son d'accordo quando mi dici che la sfida nvidia/ati e` piu` feroce di quella intel/amd, ma non mi pare che la seconda sia cosi` blanda e cosi` trascurabile.
Eppure nel secondo caso le specifiche ci sono e sono molto dettagliate, non e` che i simpaticoni si fanno

Va detto che CPU e GPU sono molto differenti, una GPU e' decisamente piu' complessa di una CPU, infatti gira a frequenze inferiori.
Che sia piu` complessa e` chiaro, ma il fatto e` che anche le CPU non son gingillini da due soldi e di impatto trascurabile, eppure...

Se fosse economicamente conveniente si', ma non vedo alcun vantaggio in quest'approccio, se non una complicazione a livello architetturale.
Complicazione? Forse, ma tutta a carico degli OS "sfigati" che vogliono driver open source. Dal punto di vista di ati/nvidia non vedo la complicazione, anzi, devono fare pure un driver (modulo) binario piu` piccolo, possono dire "avete voluto le specifiche? arrangiatevi!" e tutti i problemi di inefficienza se li deve sobbarcare il SO. A me parrebbe una situazione migliore.

Ikitt_Claw
30-11-2004, 12:15
Originariamente inviato da fek
Lo capisco eccome, e proprio perche' capisco l'open source me ne sto ben alla larga, perche' nel mio lavoro e' deleterio.

Beh, con driver opensource il counter l'avresti visto per dritto, per rovescio, di sopra, di sotto... ;)

ilsensine
30-11-2004, 12:19
Originariamente inviato da fek
Ma tacciare ATI di chissa' quale crimine contro l'umanita' perche' non rilascia le specifiche della sua GPU in nome di un "bene superiore", mi sembra un po' infantile.
Non si tratta solo del rilascio delle specifiche.
ATI non ha rilasciato specifiche per l'r200, nè fornito driver, finché non è stata costretta da una figura meschina fatta con una società che ha messo mano al portafogli al posto di ATI per avere i driver. Da allora, la ATI ha cominciato a produrre driver, e le specifiche dell'r200 sono "miracolosamente" diventate disponibili.

Ci sono chiari errata in alcune versioni dell'r200 che ATI si rifiuta di documentare.

ATI non rilascia agli sviluppatori DRI le specifiche dell'r300, ma lo ha fatto con gli sviluppatori xig.

Uscito doom3 per linux, i possessori di nvidia o di ATI (supportate dai driver DRI) hanno potuto giocarci, gli altri hanno dovuto aspettare i comodi dei signori

Linux per x86-64 è uscito da un bel pezzo, solo ora ATI se ne è accorta. Mi chiedo che porcherie abbiano fatto nei loro driver per avere tutti questi problemi.

Più altre cose lette nel dempo.

Converrai almeno che, a prescindere dal discorso open/closed source, un utente linux dovrebbe averne abbastanza di una simile compagnia.

fek
30-11-2004, 12:24
Originariamente inviato da Ikitt_Claw
A parte il fatto che mi aspetterei che questi calcoli siano fatti prima di lanciare un prodotto sul mercato, specie nel caso di GPU, specie nel caso di ati/nvidia,
continuo a non vedere differenze significative con caso delle CPU o, per dirla tutta, di (quasi) qualunque processore. Mi viene in mente anche il discorso delle prime implementazioni 3dnow che, se ben ricordo, potevano far calcoli solo in precisione singola al contrario delle prime sse. Mi chiedo se sapere questo fatto, oltretutto appunto documentato, abbia avvantaggiato intel nella creazione di SSE, e se si come. Ma sto forse divagando e oltretutto non son nemmeno tanto ferrato su questo campo.


Il tuo discorso e' interessante, purtroppo non sono troppo ferrato sull'architettura interna di una CPU, quindi non saprei dirti perche' possano permettersi di esporre il linguaggio assembly. A intuizione direi che e' una questione storica: tutte le CPU hanno sempre esposto l'assembly per chi produce i compilatori e la situazione non puo' essere cambiata facilmente.

Per le GPU, i "compilatori" di shader sono interni ai driver, quindi non hanno bisogno di esporre il linguaggio interno, ma solo un metalinguaggio assembly che puoi viene ricompilato. Cosi' possono tenersi strette queste specifiche e non devono divulgarle.

Alla fine mi sembra una questione di nuovo economica: per le CPU gli conviene, per le GPU no.


Complicazione? Forse, ma tutta a carico degli OS "sfigati" che vogliono driver open source. Dal punto di vista di ati/nvidia non vedo la complicazione, anzi, devono fare pure un driver (modulo) binario piu` piccolo, possono dire "avete voluto le specifiche? arrangiatevi!" e tutti i problemi di inefficienza se li deve sobbarcare il SO. A me parrebbe una situazione migliore.

Sai che hai appena descritto il nuovo driver model di Longhorn? :D

Originariamente inviato da Ikitt_Claw
Beh, con driver opensource il counter l'avresti visto per dritto, per rovescio, di sopra, di sotto... ;)

Ma solo perdendo tempo a leggermi i sorgenti ;)
Io voglio solo una chiamata:

Device->GetPerformanceCounter(bla_bla_bla);

Come se lo implementano sono affari loro.

fek
30-11-2004, 12:27
Originariamente inviato da ilsensine
Ci sono chiari errata in alcune versioni dell'r200 che ATI si rifiuta di documentare.


Ma non avevi detto che le specifiche dell'R200 sono tutte disponibili? Vedi che non te lo documentano tutto? Ovviamente non ti documentano soluzioni che sono ancora in uso nell'R3X0 e R420.

Uscito doom3 per linux, i possessori di nvidia o di ATI (supportate dai driver DRI) hanno potuto giocarci, gli altri hanno dovuto aspettare i comodi dei signori

I comodi di chi spende i soldi per progettare le schede ed ha il sacrosanto diritto di supportare gli chi pare a lui.


Linux per x86-64 è uscito da un bel pezzo, solo ora ATI se ne è accorta. Mi chiedo che porcherie abbiano fatto nei loro driver per avere tutti questi problemi.

I driver Win64 ATI sono disponibili al pubblico.

Converrai almeno che, a prescindere dal discorso open/closed source, un utente linux dovrebbe averne abbastanza di una simile compagnia.

Io ne ho abbastanza di linux, ma non per questo ne dico peste e corna :D
(ok, qualcosa di cattivo ogni tanto mi scappa)

Ikitt_Claw
30-11-2004, 12:37
Originariamente inviato da fek
[...] Per le GPU, i "compilatori" di shader sono interni ai driver, quindi non hanno bisogno di esporre il linguaggio interno, ma solo un metalinguaggio assembly che puoi viene ricompilato. Cosi' possono tenersi strette queste specifiche e non devono divulgarle.
E magari il parco di applicazioni che devono far uso di tale assembly, sebbene indubbiamente molto lucrativo, e` piu` ristretto rispetto a quello di una CPU.
Potrebbe funzionare.

Sai che hai appena descritto il nuovo driver model di Longhorn? :D

Beh, in linux funziona cosi` da qualche anno :D

Ma solo perdendo tempo a leggermi i sorgenti ;)
Io voglio solo una chiamata:
Device->GetPerformanceCounter(bla_bla_bla);
Come se lo implementano sono affari loro.
Uhm, questo dubito che la vedrai mai: quanto puo` convenirgli realizzare quell'API? Avendo i sorgenti, piu` o meno brillantemente, quel problema si risolve ;)

fek
30-11-2004, 12:41
Originariamente inviato da Ikitt_Claw
Beh, in linux funziona cosi` da qualche anno :D

Vuoi dire che non funziona da qualche anno altrimenti neppure staremo qui a discutere sui driver dell'R200 che non vanno ;)


Uhm, questo dubito che la vedrai mai: quanto puo` convenirgli realizzare quell'API? Avendo i sorgenti, piu` o meno brillantemente, quel problema si risolve ;)

E' questo il punto, perche' devo spendere una settimana di lavoro per tirare fuori il performance counter dai sorgenti (magari introducendo qualche bug nel driver che non conosco ;)) quando mi serve solo una funzione?

Non c'e' motivo, posso usare quella settimana in modo piu' proficuo e sicuro, tipo litigando su linux con sensine sul forum si hwupg :D

Vedro' quell'API quando avremo rotto le balle ad ATI e NVIDIA a tal punto che dovranno rendere disponibili quei counter. Non manca tanto, gia' l'API e' disponibile nelle specifiche delle D3D ma non supportata dai driver. Arrivera' quel giorno...

Ikitt_Claw
30-11-2004, 12:48
Originariamente inviato da fek
Vuoi dire che non funziona da qualche anno altrimenti neppure staremo qui a discutere sui driver dell'R200 che non vanno ;)
Del resto non avendo neppure le specifiche... :D
Comunque: non ho notizia di alcuno sviluppatore OSS che si sia mai lamentato di una ditta che ha fornito le specifiche. Nessuno sviluppatore, detto in altri termini, e` mai uscito specifiche in mano borbottando "certo se sviluppavano un driver...".
Dal punto di vista del produttore di ferro mi pare che, parlando di impegno necessario per il supporto, rilasciare specifiche + modulo binario opzionale (stile matrox com mga G400 per intendersi) sia meno oneroso e almeno tanto rassicurante per l'utenza che sviluppare un driver binario.


E' questo il punto, perche' devo spendere una settimana di lavoro per tirare fuori il performance counter dai sorgenti (magari introducendo qualche bug nel driver che non conosco ;)) quando mi serve solo una funzione?
Perche` non hai altra scelta? :)
Per lo stesso discorso di convenienza, ati dubito mai aggiungera` getPerformanceCounter solo per farti contento (senza per questo nulla togliere alle tue abilita`, intendiamoci). Se hai i sorgenti, almeno avresti un'altra possibilita`.
Con binary-only o fai come dice ati o fai come dice ati.
Inciso: ad ati non costerebbe nulla di piu` perche` "e` il tuo codice [modificato da te], sono i tuoi bug".

fek
30-11-2004, 13:00
Originariamente inviato da Ikitt_Claw
Perche` non hai altra scelta? :)
Per lo stesso discorso di convenienza, ati dubito mai aggiungera` getPerformanceCounter solo per farti contento (senza per questo nulla togliere alle tue abilita`, intendiamoci). Se hai i sorgenti, almeno avresti un'altra possibilita`.
Con binary-only o fai come dice ati o fai come dice ati.
Inciso: ad ati non costerebbe nulla di piu` perche` "e` il tuo codice [modificato da te], sono i tuoi bug".

Sai che mi piace essere pragmatico.
Il mio pragmatismo mi dice che quella scelta e' fittizia: se per qualche motivo il mio algoritmo si appoggia sulla conoscenza dei dettagli di implementazione del driver, allora e' meglio che riguardo il mio algoritmo, probabilmente e' progettato male.

Nel caso dei performance counter, si parla di ottimizzazioni e non me li daranno perche' sono simpatico (anche se effettivamente le mie mail fanno morire dal ridere :D), ma perche' gli conviene fornire strumenti di profiling agli sviluppatori.

E' molto piu' cost effective chiedere a loro di implementarli che mettere mani in quel codice con l'altissimo rischio di introdurre bug.

ilsensine
30-11-2004, 13:35
Originariamente inviato da fek
Ma non avevi detto che le specifiche dell'R200 sono tutte disponibili?
Cosa c'entrano gli errata con le specifiche non rilasciate?
Sto parlando di errata su funzionalità che hanno documentato

I comodi di chi spende i soldi per progettare le schede ed ha il sacrosanto diritto di supportare gli chi pare a lui.
D'accordo. E' però _mio_ sacrosanto diritto farlo presente a chi spende soldi per comprare le schede.
I driver Win64 ATI sono disponibili al pubblico.
Interessante, aspetta che me lo segno.

Io ne ho abbastanza di linux, ma non per questo ne dico peste e corna :D

Allora mi spieghi che ci stai facendo in questo thread? :rolleyes:

Io invece _dico_ peste e corna di ATI, in quanto ci sono delle possibilità che rilascino qualcosa (che richiede anche l'affondare il dito nella piaga ogni volta che occorre).

Duncan
30-11-2004, 14:14
Originariamente inviato da fek
Sai che mi piace essere pragmatico.
Il mio pragmatismo mi dice che quella scelta e' fittizia: se per qualche motivo il mio algoritmo si appoggia sulla conoscenza dei dettagli di implementazione del driver, allora e' meglio che riguardo il mio algoritmo, probabilmente e' progettato male.

Nel caso dei performance counter, si parla di ottimizzazioni e non me li daranno perche' sono simpatico (anche se effettivamente le mie mail fanno morire dal ridere :D), ma perche' gli conviene fornire strumenti di profiling agli sviluppatori.

E' molto piu' cost effective chiedere a loro di implementarli che mettere mani in quel codice con l'altissimo rischio di introdurre bug.

Scusa, ammettiamo che esista un ipotetico driver OSS, ci sono 2 casi, la chiamata c'è o non c'è; nel primo caso non esiste il problema nel secondo hai diverse possibilità di scelta

1) Ti prendi la API e la integri con quello che ti serve
2) Segnali al manteiner le tue esigenze, il quale deciderà se implementarla o meno, ne più ne meno di quello successo con a te con ATI

Se il manteiner comunque è una persona inteligente segnerà la tua richiesta tra le caratteristiche richieste per il futuro, se qulcun'altro avrà la tua stessa esigenza e avrà tempo/modo di implementarla la manderà al manteiner che la integrerà nella API

Non mi pare che nessuno ti costringa a fare lavoro in più se i driver fossero aperti, una cosa in più sicuramente puoi fare, scegliere...


Spero di esser stato chiaro nell'esporre :D

krokus
30-11-2004, 14:19
Originariamente inviato da ilsensine
Anche una voodoo3 (una delle schede più documentate) era "decisamente più complessa" di una s3 del suo tempo.

:D
AHI!
Sei sicuro?
Dal mio punto di vista assolutamente profano e incompetente, una Savage4 era ben più complessa di una Voodoo3, più potente ma priva di funzioni quali rendering a 32 bit, supporto texture grandi (solo fino a 256x256, la Savage4 arriva a 2048x2048), supporto al S3TC, Full Scene Anti Aliasing....
O sbaglio?
Per inciso, anche S3 aveva rilasciato le specifiche delle Savage a Xig, peccato che con i soldi della licenza Xig ti compravi una fiammante RivaTNT2...

fek
30-11-2004, 15:37
Originariamente inviato da ilsensine Allora mi spieghi che ci stai facendo in questo thread? :rolleyes:

Ti sto spiegando il perche' (giustamente) ATI e NVIDIA non rilasciano le specifiche del loro hardware.


Io invece _dico_ peste e corna di ATI, in quanto ci sono delle possibilità che rilascino qualcosa (che richiede anche l'affondare il dito nella piaga ogni volta che occorre).

Ma sai quanto frega ad ATI di 4 gatti che usano linux per giocare?

fek
30-11-2004, 15:39
Originariamente inviato da Duncan Se il manteiner comunque è una persona inteligente segnerà la tua richiesta tra le caratteristiche richieste per il futuro, se qulcun'altro avrà la tua stessa esigenza e avrà tempo/modo di implementarla la manderà al manteiner che la integrerà nella API

E secondo te io mi fido di qualcosa implementato da chissa' chi, chissa' dove, non testato e per il quale non si prende alcuna responsabilita'?

Hey, ragazzi, questo e' un business, non e' mica fare il giochino con gli amichetti in garage.

ilsensine
30-11-2004, 15:46
Originariamente inviato da fek
Ma sai quanto frega ad ATI di 4 gatti che usano linux per giocare?
Grazie per averci illuminato con la tua sconfinata saggezza; in effetti la news era così fuorviante che lasciava intendere il contrario.

Ikitt_Claw
30-11-2004, 15:55
Originariamente inviato da fek
Hey, ragazzi, questo e' un business, non e' mica fare il giochino con gli amichetti in garage.

Originariamente inviato da Ikitt_Claw
Evitando, se possibile, di tirare fuori il solito luogo comune "l'open source e` buono solo per i filosofi da due soldi che non lavorano"...

fek
30-11-2004, 15:59
Originariamente inviato da ilsensine
Grazie per averci illuminato con la tua sconfinata saggezza; in effetti la news era così fuorviante che lasciava intendere il contrario.

Adesso non fare ironia dell'asilo.

Magari fossi sconfinatamente saggio e magari potessi illuminare qualcuno. Purtroppo so solo qualcosina sulle GPU e l'ho scritto, mi dispiace che aver corretto un tuo errore ti abbia offeso fino a tal punto.

Qualcuno ha domandato perche' ATI non rilascia le specifiche dell'hw ed io ho provato a rispondere.

Duncan
30-11-2004, 16:11
Originariamente inviato da fek
E secondo te io mi fido di qualcosa implementato da chissa' chi, chissa' dove, non testato e per il quale non si prende alcuna responsabilita'?


Non mi pare che ci siano software OSS che abbiano problemi più grossi di altri commerciali

Per la responsailità... perchè chi se la prende nel software commerciale?
Propio nella licenza c'è scritto che non si prendono nessuna responsabilità...


Hey, ragazzi, questo e' un business, non e' mica fare il giochino con gli amichetti in garage.

Mi pare che ci siano molte aziende che usano software opensource e fanno business

questo tuo post, scusa se mi permetto, lo trovo un po' superficiale... IMHO

ilsensine
30-11-2004, 16:17
Originariamente inviato da fek
Adesso non fare ironia dell'asilo.

Magari fossi sconfinatamente saggio e magari potessi illuminare qualcuno. Purtroppo so solo qualcosina sulle GPU e l'ho scritto, mi dispiace che aver corretto un tuo errore ti abbia offeso fino a tal punto.

Qualcuno ha domandato perche' ATI non rilascia le specifiche dell'hw ed io ho provato a rispondere.
Quale sarebbe il mio errore? Pensare che il mercato linux possa essere di qualche interesse per i produttori di schede video? A quanto pare sì, altrimenti non giustifico tutti gli investimenti fatti da nvidia e - quarda un pò chi si vede - ATI. Forse non è solo il mercato domestico che interessa; linux è usato sempre più di frequente per la realizzazione di animazioni cinematografiche, e alcune ditte - come la sgi - propongono sistemi high-end basati su linux per la grafica professionale 2d e 3d. Forse sono questi i mercati che in fin dei conti interessano loro, non lo so, ma che ci sia"qualche interesse tangibile" mi sembra chiaro.
Assodato questo (o fai finta che sia vero, se non ti convince), ATI si trova in una situazione di oggettiva difficoltà: sia perché i suoi driver sono al momento diverse spanne dietro a quelli del concorrente, sia perché l'utenza linux, qualunque sia quella che interessa loro, ha perso ogni fiducia nelle loro reiterate promesse. Ad oggi, solo un matto comprerebbe scientemente una scheda high-end per linux da ATI! Spero che non avrai nulla da ridire se alcuni, me compreso, pensano di utilizzare questa situazione di debolezza di ATI per cercare di scucire informazioni su almeno le funzionalità essenziali dell'r300, cosa che sicuramente cambierebbe nel breve periodo la loro immagine nel mondo linux, e che certamente è stata valutata dai loro uffici di marketing (nb punzecchiare sui forum e invitare la gente a rivolgersi alla concorrenza non è l'unico strumento di pressione, ci sono altre situazioni di cui preferisco non parlare in questo momento).
Non è detto che ci riusciremo, anzi non è affatto probabile, ma Dio buono lasciaci almeno provare!

fek
30-11-2004, 17:26
Originariamente inviato da Duncan
Non mi pare che ci siano software OSS che abbiano problemi più grossi di altri commerciali

Per la responsailità... perchè chi se la prende nel software commerciale?
Propio nella licenza c'è scritto che non si prendono nessuna responsabilità...

Esempio classico, Summer Update 2004 delle DirectX, c'e' stato un baco grosso come una casa, lo abbiamo riportato, il giorno dopo un ingegnere MS on site per assicurarsi che il baco fosse corretto.
Hai voglia ad andare a beccare quello che in Australia ha fixato un bug e ne ha introdotto un altro in un driver OSS e farlo venire on site qui in UK per assicurarsi di non fare altri danni.

Mi sembra un livello di supporto un po' differente.

fek
30-11-2004, 17:30
Originariamente inviato da ilsensine

Assodato questo (o fai finta che sia vero, se non ti convince), ATI si trova in una situazione di oggettiva difficoltà: sia perché i suoi driver sono al momento diverse spanne dietro a quelli del concorrente, sia perché l'utenza linux, qualunque sia quella che interessa loro, ha perso ogni fiducia nelle loro reiterate promesse.

Non faccio affatto finta che sia vero: nel mercato della grafica 3d per scopo interattivi (VG), Linux non esiste di fatto, ha un impatto minore, molto minore, dell'1%. Se vuoi convincerti del contrario fai pure, pero' ti sfugge il valore a livello di marketing di dire "noi supportiamo anche linux", ed e' per questo che ATI ha fatto finta di triplicare il suo reparto di supporto Linux.

Questi sono dati di mercato, e' inutile girarci attorno e io non faccio finta che sia vero nulla se non lo e'.

E se l'utenza linux ha perso fiducia nelle reiterate promesse di ATI dovrebbe domandarsi perche' queste sono sempre state e sempre saranno promesse: perche' non frega a nessuno di Linux nel campo del 3d, e' nato per fare bene altro.

Originariamente inviato da ilsensine
Non è detto che ci riusciremo, anzi non è affatto probabile, ma Dio buono lasciaci almeno provare!

Ma provate a fare quello che vi pare, ma ti pare che mi interessi qualcosa di qualche sparuto gruppetto di utenti che schiamazza?

Qualcuno ha domandato perche' ATI non rilascia le specifiche, io ho risposto in maniera spero convincente, tu mi hai messo in bocca altre cose che non ho detto.

Te lo ripeto chiaro e tondo: di quello che fa l'utenza linux nel campo del 3d non mi interessa, perche' conta nulla. Il 3d in tempo reale si fa da altre parti.

Duncan
30-11-2004, 17:57
Originariamente inviato da fek
Esempio classico, Summer Update 2004 delle DirectX, c'e' stato un baco grosso come una casa, lo abbiamo riportato, il giorno dopo un ingegnere MS on site per assicurarsi che il baco fosse corretto.
Hai voglia ad andare a beccare quello che in Australia ha fixato un bug e ne ha introdotto un altro in un driver OSS e farlo venire on site qui in UK per assicurarsi di non fare altri danni.

Mi sembra un livello di supporto un po' differente.

Capisco l'esempio... ma i bachi nelle relase del softer vengono mediamente chiusi prima sul software OSS

Continuo a non vedere tutta questa differenza...

fek
30-11-2004, 18:07
Originariamente inviato da Duncan
Capisco l'esempio... ma i bachi nelle relase del softer vengono mediamente chiusi prima sul software OSS

Continuo a non vedere tutta questa differenza...

Si puo' discutere su questa affermazione, ma prendiamola per vera: il problema non sta nel tempo impiegato a fixare un bug, ma sta nel fatto che io non ho alcuna garanzia che chi ha fixato il bug:

- non ne abbia introdotti di nuovi
- sia disponibile se ho dei problemi
- sia disponibile a fixare i bug che ha eventualmente introdotto

Io mando una mail a MS e loro mi spediscono un ingegnere in giornata se il problema e' grave (in quel caso lo era). Ok, spesso mi mandano solo a quel paese perche' sto rompendo le scatole e la colpa era mia :D

Duncan
30-11-2004, 18:21
Originariamente inviato da fek
Si puo' discutere su questa affermazione, ma prendiamola per vera: il problema non sta nel tempo impiegato a fixare un bug, ma sta nel fatto che io non ho alcuna garanzia che chi ha fixato il bug:

- non ne abbia introdotti di nuovi
- sia disponibile se ho dei problemi
- sia disponibile a fixare i bug che ha eventualmente introdotto

Io mando una mail a MS e loro mi spediscono un ingegnere in giornata se il problema e' grave (in quel caso lo era). Ok, spesso mi mandano solo a quel paese perche' sto rompendo le scatole e la colpa era mia :D

Secondo me stiamo parlando di due casi molto particolari tutti e due

Potrei fare altri esempi per provare che anche con OSS puoi avere ottimo supporto... (molti dei responsabili/sviluppatori di software fanno cosulenza e quella è a pagamento ;) ), ma non credo che porterebbe ad una maggiorn comprensione, visto che abbiamo già esposto le nostre argomentazioni... la mia intenzione era chiarire/capire... raggiunto questo si rischia di andare avanti senza aggiunger nulla di nuovo ;)

fek
30-11-2004, 18:51
Ma infatti ne' io ne' tu, credo, stiamo facendo affermazioni assolute qui. Anch'io ho portato il mio caso, e nel mio caso avere driver OSS e, per assurdo, le D3D OSS creerebbe molti problemi.

Ci sono situazioni nelle quali l'OSS e' invece desiderabile.

Nello sviluppo del software c'e' poco o nulla di assoluto, abbiamo scoperto l'acqua calda :)

Duncan
30-11-2004, 19:43
solo un'ultima precisdazione software OSS non significa assenza di una ditta che da supporto, per fare un esempio conoscuto ti posso citare mysql

Se esistessero le D3D OSS non cambierebbe molto... il codice però sarebbe aperto al contributo di molti sviluppatori... alla MS rimarebbe solo l'imbarazzo di scegliere se includere queste modifiche nella loro libreria

fek
30-11-2004, 20:49
Originariamente inviato da Duncan
solo un'ultima precisdazione software OSS non significa assenza di una ditta che da supporto, per fare un esempio conoscuto ti posso citare mysql

Se esistessero le D3D OSS non cambierebbe molto... il codice però sarebbe aperto al contributo di molti sviluppatori... alla MS rimarebbe solo l'imbarazzo di scegliere se includere queste modifiche nella loro libreria

Qui si esce molto dal discorso, ma per farla breve, e' proprio il punto dell'OSS che non condivido: avere il codice aperto al contributo di molti sviluppatori.
Qualunque ditta di software serio non accetterebbe alcun contributo esterno: tutti i cambiamenti dovrebbero essere veicolati attraverso proposte formali, design, review del design, code inspection formali e batterie di unit testing.
E no, una code inspection non puo' essere fatta via IRC o via email.
Scrivere software non significa buttare giu' qualche riga di codice e sperare che funzioni.
Nessuna ditta seria programma in questa maniera alla viva il parroco.

cdimauro
01-12-2004, 09:31
CPU e GPU sono molto differenti. Le prime non hanno un granché bisogno di driver (può andar bene per usare il Cool & Quiet degli AMD64, ad esempio), le secondo sì, e sono anche molto complessi, com'è chiaro a tutti ormai.
Inoltre CPU e GPU hanno compiti e finalità talmente diversi che sono pensate e progettate diversamente. Poco importa per una CPU rendere disponibili a tutti le sue specifiche a livello di ISA, dei tempi di esecuzione e latenza delle istruzioni, del tipo di istruzioni (con o senza microcodice), ecc.: difficilmente si riuscirà a risalire in che modo è stata progettata; per questo lo strumento più utile è il microscopio e un reverse engineerer con le palle che "sezioni" il core e ne tiri fuori l'implementazione.

Per le GPU il compito è molto più semplice se si conoscono le specifiche, perché ad esempio si riesce a capire quanti registri temporanei hanno, quali sono i loro limiti, se un'unità pixel shader può eseguire indifferentemente qualunque codice o presenta delle limitazioni, ecc. ecc..: tutte cose che vengono "nascoste", appunto, dentro il driver. Al programmatore non serve conoscere tutti questi dettagli, perché lavora con un linguaggio più ad alto livello e lascia che sia il compilatore del driver a generare il codice finale tenendo conto dell'architettura in oggetto. Correggimi se sbaglio, fek.

Pertanto non credo che Ati e nVidia si facciano la guerra per puro diletto, ma hanno tutto l'interesse a non far capire all'avversario in che modo ha implementato xyz, perché lo potrebbe copiare e avvantaggiarsene. Un esempio che mi viene in mente è l'ottimizzazione che Ati ha introdotto con le 9600 (il filtro ottimizzato a seconda del tipo di mip map, se non erro), di cui nessuno era al corrente finché non è saltato fuori, e che ha permesso ad Ati di avvantaggiarsene notevolmente.

fek
01-12-2004, 10:55
Originariamente inviato da cdimauro
Al programmatore non serve conoscere tutti questi dettagli, perché lavora con un linguaggio più ad alto livello e lascia che sia il compilatore del driver a generare il codice finale tenendo conto dell'architettura in oggetto. Correggimi se sbaglio, fek.


Funziona esattamente cosi'.

joe4th
01-12-2004, 18:14
Originariamente inviato da ilsensine
Non vogliamo dei driver migliori, vogliamo dei driver liberi. Ma è un discorso che chi non ci sta dentro non può capire.

Parole sante!

joe4th
01-12-2004, 20:23
Originariamente inviato da ilsensine
Non si tratta solo del rilascio delle specifiche.
ATI non ha rilasciato specifiche per l'r200, nè fornito driver, finché non è stata costretta da una figura meschina fatta con una società che ha messo mano al portafogli al posto di ATI per avere i driver. Da allora, la ATI ha cominciato a produrre driver, e le specifiche dell'r200 sono "miracolosamente" diventate disponibili.

Ci sono chiari errata in alcune versioni dell'r200 che ATI si rifiuta di documentare.

ATI non rilascia agli sviluppatori DRI le specifiche dell'r300, ma lo ha fatto con gli sviluppatori xig.

Uscito doom3 per linux, i possessori di nvidia o di ATI (supportate dai driver DRI) hanno potuto giocarci, gli altri hanno dovuto aspettare i comodi dei signori

Linux per x86-64 è uscito da un bel pezzo, solo ora ATI se ne è accorta. Mi chiedo che porcherie abbiano fatto nei loro driver per avere tutti questi problemi.

Più altre cose lette nel dempo.

Converrai almeno che, a prescindere dal discorso open/closed source, un utente linux dovrebbe averne abbastanza di una simile compagnia.

Hai pienamente ragione. Al di la di discorsi open/closed,
qui stiamo parlando di un'azienda che
ha una grossa fetta di mercato delle schede video
dei PC di tutto il mondo (50%?). Mi chiedo, ma di quanti milioni di
utenti hanno bisogno per prendere in considerazione Linux
decentemente? Si stimano che ci siano 20milioni di utenti
Linux. Chiaramente non tutti montano schede ATI ma
fossero anche solo 100,000 avrebbero comunque di che
guadagnarne profumatamente, perfino pagando a peso d'oro
i programmatori dei loro driver.
Attualmente sembra che viva tra le nuvole.
Continua a rilasciare software per release decrepite di XFree86
(ti rendi conto che ancora fornisce binari per XFree 4.1.0, 4.2.0 e 4.3.0?)
di 3 anni fa. Secondo te uno si compra una Radeon 9600 o 9800
e poi ci installa su una RedHat 6.2 o una Mandrake 7.0 con
XFree 4.1.0 del 2000?

NVidia e' leggermente migliore sui driver
proprietari, ma tutto sommato non e' che c'e' da stare poi tanto allegri, almeno
con ATI, fino alla Radeon 9200 posso usarle con Linux o anche FreeBSD
con i driver free, Nvidia no (salvo le TNT, che comunque
non si trovano più). Anche NVidia fino a poco tempo fa
era molto indietro su Linux. E' stata una vita a usare ancora
egcs 1.0.3 quando il mondo era ormai passato a gcc 3.x da anni. E ci
ha messo un bel po' per rilasciare i driver ufficiali compatibili con il
kernel 2.6 (quando programmatori "apocrifi" l'avevano fatto in mezza
giornata...).
Tra l'altro per NVidia, non so quanto sia vero, ma se non ricordo
male dichiarò che mai e poi mai avrebbe rilasciato
il codice sorgente dei loro driver, perché pare
nella sua libGL ci sia del codice che nemmeno possiede, le
cui proprietà intellettuali sono si Silicon Graphics.

Quello che mi chiedo io, comunque è: con tutti i soldi che prende ATI
vendendo MILIONI e MILIONI di schede o chip, non
sono in grado di pagare 5 (dico 5, non 2000) programmatori,
di cui ciascuno segue una delle top (RedHat/Mandrake/SuSE/Slackware/Debian) Linux distribution (a livello
di compatibilita' XFree/X.org/gcc/kernel) per rilasciare
i driver compatibili con essi? Purtroppo secondo me
la situazione e' peggiorata attualmente, se uno vuole
basarsi solo sui driver free, specie
per i portatili, dove oramai quelli basati su ATI9200
(supportate da X.org+DRI) sono in estinzione, a favore delle 9600, etc.

Matrox invece sembra aver fatto hara-hiri. Ai tempi della Millennium e
della Mistique, letteralmente sbavavamo per richiedere
il supporto in XFree.
Chiaramente il 3D non esisteva
(o forse c'era solo per la Voodoo).
Loro dichiaravano con molta
tracotanza (personalmente verificata allo SMAU) che le specifiche
le davano solo a quelli di Xig, e che gli altri si attaccavano!. (io l'avevo acquistato Xig AcceleratedX 4.X, quando ancora costava 200$,
ai tempi di RedHat 5.0, chiaramente più efficiente
di Xfree 3.X, ma solo quando XFree 3.X non era quello che
e' adesso XFree 4.X o X.org e uno doveva configurarsi manualmente
una scheda mettendo anche i pixel timing, etc.: tuttavia
al minimo aggiornamento della distribuzione non funzionava
più nulla e si doveva riacquistare una nuova versione di Accelerated X). In
seguito Matrox si aprì (a parte il supporto HAL, per il quale c'era
la libreria .o staticamente linkabile) le schede G200/G400/G450/G550
erano divennero in breve tempo la scelta migliore per l'utente Linux: insuperabili nel 2D e passabili nel 3D (per tuxracer, etc.) non richiedevano
driver proprietari; ora anzitutto i vecchi modelli G450 e G550 non
si trovano praticamente piu', ma per le nuove P650/P750 basate sul core della
Parhelia (tra l'altro ho una Parhelia 128MB) non c'e' più nemmeno
il supporto per il 2D con i driver di XFree/X.org. I loro
driver proprietari sono fermi a una beta 0.xx di più di un'anno
fa (che tra l'altro non e' nemmeno possibile scaricare
senza registrarsi). Insomma invece di mantenere un mercato
di nicchia acquisito, hanno preferito mollare tutto...Se non
avevano le risorse di programmatori per scrivere i driver,
potevano rilasciare quel poco che avevano scritto in opensource
e sicuramente la comunità glieli avrebbe mantenuti e migliorati.
Invece cosi' si sono chiusi, e secondo me non serve a nulla,
perché proteggono un prodotto che in ambito Linux,
(e anche in Windows nutro seri dubbi) non si fila più nessuno...