@maumau138
Ma che stai dicendo?
Forse tu usi le GPU per fare dei giochini. Chi invece usa le GPU per fare i calcoli in maniera serie vuole essenzialmente una cosa: potenza per watt per euro.
Se sviluppare in OpenCL vuol dire che le prestazioni calano, il fatto che tale SW sia portabile su una possibile ed immaginaria architettura tra 10 anni non ha alcun senso tenerne conto. Mettiamo che domani invece AMD fallisca (perchè è più probabile che fallisca visti i bilanci che riesca a fare una scheda professionale che va meglio di quelle NVIDIA) che te ne fai del tuo codice compatibile ma poco efficiente?
Sarebbe come dire che oggi è stupido usare i sistemi di sviluppo della Microsoft .NET (che sono chiusi e legati ad una unica architettura, quella Intel) perchè se domani il PippoOS prende il 99.9% del mercato e MS fallisce le tue applicazioni non funzioneranno più. O se ARM sbaragliasse Intel nella produzione di processori per Desktop/Workstation.
Quando domani OpenCL mostrerà di avere le stesse potenzialità di CUDA e avere la stessa capacità nel supportare lo sviluppo, allora ci si potrà fare questa domanda. Anche se parlare di CUDA vs OpenCL è sbagliato, perché OpenCL nell'implementazione NVIDIA gira proprio sul framework CUDA.
Oggi la concorrenza non è proprio presente nel mercato del GPGPU. I migliori strumenti da diversi anni li ha presentati NVIDIA e questo gap che si è formato sarà difficile da ricoprire in tempi brevi. Inutile speculare su cosa sarà domani perché ogni direzione è possibile quando non c'è niente all'orizzonte.
AMD deve ancora presentare una architettura che faccia qualcosa di più che rasterizzare poligoni a velocità della luce e sopratutto dimostrare di avere la forza di sostenere gli sviluppatori (che non sono i videogiocatori che investono 200 euro in una scheda grafica) con qualità.
Per ora non si vede niente di tutto questo ed è davvero infondato la critica a chiunque investa il proprio futuro (in termini di tempo e risultati ottenuti) in un qualcosa di certo come lo sviluppo per CUDA.
|