View Single Post
Old 11-10-2020, 11:53   #17
386DX40
Senior Member
 
Iscritto dal: Aug 2019
Messaggi: 2692
Quote:
Originariamente inviato da coschizza Guarda i messaggi
Adattare le unità interne di una gpu per decodificare un nuovo formato vuol dire consumare 100w per fare quello che si fa con unità specifiche in 1w, quindi ormai sono anni che non si fa più perché è la cosa meno efficiente che esiste in informatica.
I cellulari con 100 megapixel usano più pixel per generare un solo sub pixel quindi non è riferito alla risoluzione dell’immagine finale.
Ma intanto le schede video sono già fatte per consumare nel loro range di consumo da (es.) 20W (immagino realisticamente avendo anche varie GUI da accelerare) a (es.) 300W, poco importa se alla fine deve "faticare" di piu', ammettendo siano nelle condizioni di farlo tecnicamente per lunghi periodi di tempo come appunto vedere che so' ore di conferenze in 4K in streaming, semmai imho importa non dover spendere che so' 500 euro per comprare una nuova scheda video. Basti pensare a quanti ora stanno vendendo schede video di fascia alta perche' surclassate gia' dopo poco tempo.
Intanto gia' oggigiorno i requisiti hardware per un pc di fascia alta in termini di consumo sono tutto fuorchè ragionevoli.. alimentatori da 1000W che manco un frigorifero o un fornetto, dissipatori che nemmeno un monocilindro da 650cc di un vecchio motociclo aveva.. boh..

Sulle fotocamere alla fine quel che viene venduto e che si ottiene e' la risoluzione finale. Se viene venduta ed effettivamente pesa 100 megapixel, certo viene l'ovvio dubbio e risposta suddetta di come mai le reflex abbiano un quinto di quella risoluzione per foto n volte migliori, ma cio' non toglie che chi le compra crede che i 100 megapixel ("reali" in termini di file/num.pixel finale) siano necessari a foto migliori.

Ultima modifica di 386DX40 : 11-10-2020 alle 11:57.
386DX40 è offline   Rispondi citando il messaggio o parte di esso
 
1