Quote:
Originariamente inviato da Pier2204
L'affermazione in grassetto sarebbe da valutare bene.
Posto il fatto che su uno schermo da 5 - 5.5 pollici le differenza tra full HD e Qwvga sono quasi impercettibili a un occhio normale, mentre invece non sono affatto secondarie le risorse hardware per gestire simili risoluzioni, siamo sicuri che la differenza di cui sopra porti a reali benefici e non peggiori la situazione?
|
premesso che non ho avuto modo di provare di persona.
ma gli articoli scientifici che non mi ricordo quale utente in non mi ricordo quale articolo aveva postato, dicevano che, sì, si notavano, ma solo avendo una visione perfetta al 100%, e solo volendo notarle.
Ma: cosa ti fa più notare la mancanza di risoluzione? Le linee diagonali. E' per questo che implementano l'antialias nei videogiochi.
Per cui, quand'è che più di tutto noterai che la risoluzione è insufficiente? Quando dovrai leggere testo come questo:
匢奾灱 輑鄟銆 儋圚墝 螷蟞 魡, 銈銙鉾 莔莋莥 誽賚賧 鳼鳹 榯 禊禓 滍 貵趀跅 洷炟砏 賌輈鄍, 縢羱聬 鎈巂鞪 懥斶 斠 摲 獯璯 鳱儇嘽 檌檒濦 慛 蕍蕧螛 蹸蹪鏂 蜩嶝 棫椓 蜙 壾嵷幓 溹溦滜, 彃 踶輵 磻禫穛 巘斖蘱 灡蠵讔, 鈁陾靰 誁趏跮 慔 廞徲
(per i curiosi: è semplicemente un "lorem ipsum" in cinese!)
E siccome, vi piaccia o no, ma i paesi asiatici muovono parecchio volume di mercato, mi pare ovvio che si investa in questa caratteristica che magari a noi pare inutile o solo marketing, ma probabilmente a qualcuno fa la differenza tra un'utilizzo frustrante e uno piacevole.
Sul discorso delle risorse hardware. Siamo sicuri che riducendo la risoluzione questo permetterebbe un miglioramento di altre caratteristiche?
E' esattamente lo stesso ragionamento che facevano i sostenitori della riduzione dei megapixel: "è matematico, più sono grossi i pixel più luce prendono!".
Peccato che poi all'atto pratico l'HTC ONE si sia rivelato fotograficamente penoso, nonostante i suoi grossi grassi pixels!
Un altro esempio: quando ero ancora "in gavetta", un collega più esperto mi spiegò che per velocizzare i client in dotazione era opportuno abbassare la profondità di colore a 16bit (creando quelle orrende scalettature che ciò comporta).
La cosa mi puzzava, così feci un po' di benchmark scoprendo che la differenza era irrisoria. Probabilmente la scheda video faceva le sue elaborazioni comunque a 32bit.
Non lo so, magari il collega di cui sopra era rimasto alle schede video cirrus logic da 2mb di memoria video
Con ciò cosa voglio dimostrare, che il 4k è figo e va bene ovunque? No, certo, e io francamente ne faccio pure a meno.
Che non impatta sulle performances? No, onestamente non lo so, ma potrebbe essere verosimile, come no, potrebbe impattare in maniera pesante o accettabile. Ecc.
Quello che volevo dimostrare è che i produttori non sono mica dei deficienti (tranne quelli dell'htc ONE), le loro valutazioni le fanno.