Unicode è la codifica più utilizzata sul Web
Sul Web il tasso d'adozione della codifica Unicode ha superato quello dello standard ASCII, parola di Google
di Fabio Gozzo pubblicata il 08 Maggio 2008, alle 11:45 nel canale Web









Polestar 3 Performance, test drive: comodità e potenza possono convivere
Qualcomm Snapdragon X2 Elite: l'architettura del SoC per i notebook del 2026
Recensione DJI Mini 5 Pro: il drone C0 ultra-leggero con sensore da 1 pollice
DAZN continua la lotta contro la pirateria: chiuso un altro sito illegale utilizzato anche da utenti italiani
Generativa o predittiva? Il futuro dell’intelligenza artificiale secondo Charles-H. Schulz
BYD va all-in con la Atto 2: batteria più grande, più potenza, multilink e nuova versione plug-in
Google modifica la richiesta di consenso ai servizi collegati: l'Antitrust chiude l'istruttoria
Black Friday TV: OLED, QLED e Mini-LED ai prezzi più bassi dell'anno: le super offerte dal 32" all’85"
007 First Light torna a mostrarsi all'evento Xbox: ecco il recap di tutti gli annunci
MOVA Z60 Ultra Roller Complete: il Black Friday lo porta sotto i 1000 euro
Clair Obscur: Expedition 33 trionfa ai Golden Joystick Awards 2025 con sette premi
Son quasi regalate: 135€ per le Squier by Fender Stratocaster e Telecaster a 128€ su Amazon, ma anche bassi e acustiche
Windows 11: il copia-incolla via IA funziona anche in locale. Come ottenerlo
La scopa elettrica Mova K30 Mix crolla a 187€ con sconto al checkout imprevisto: l'all-in-one che pulisce tutto in un solo passaggio
Violazione in Almaviva, fornitore IT di FS: sottratti 2,3 TB di dati, indagini in corso
Amazon avvia un investimento da 3 miliardi in Mississippi per un nuovo campus datacenter
Ci fai tutto e ci giochi bene: a 999€ portatile gaming con RTX 5060, a 869€ quello con RTX 4060, un prezzo eccezionale









24 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoil primo si comporta come dice II Arrows, il secondo è alla casua del raddoppio del file quando salvi in "unicode".
Il che è coerente con quanto scritto nell'articolo...
il primo si comporta come dice II Arrows, il secondo è alla casua del raddoppio del file quando salvi in "unicode".
Il che è coerente con quanto scritto nell'articolo...
Ah, ecco, mi pareva! Grazie della puntualizzazione. Mi sembrava di ricordare che UTF-16 usasse sempre una parola di 16 bit come unità minima ma l'affermazione di II Arrows mi ha mandato in confusione.
Ma quindi che vantaggio c'è ad usare UTF-16 rispetto ad UTF-8? Il secondo non dovrebbe essere sempre più efficiente? O ci sono caratteri per cui UTF-16 usa una singola parola mentre UTF-8 richiede 3 o 4 bytes?
Questi sistemi definiscono il "simbolo" internamente come 16 bit, rendendo di fatto impossibile rappresentare qualcosa che sta al di fuori della BMP (basic multilingual plane, ovvero tutte le rappresentazioni contenute all'interno dei 16 bit) con un singolo simbolo.
Questo viene fatto proprio perchè le lingue contenute nella BMP sono generalmente più che sufficienti a fare una localizzazione, e si ha contemporaneamente il vantaggio di rappresentare un carattere con una lunghezza fissa. Questo tipo di codifica tuttavia, non è UTF-16, ma UCS-2.
Il tutto nel mondo reale andrebbe anche bene, se non fosse che nella parte alta di unicode (dopo i famosi 16 bit), detta SMP vengono rappresentati simboli non fonetici delle lingue moderni, per lo più kanji che quindi con UCS-2 non si possono rappresentare.
In un modo o nell'altro si rompe la conformità con uno dei due standard.
La soluzione sarebbe quella di adottare una rappresentazione a 32 bit (UTF-32/UCS-4), cosa che unix, se la memoria non mi tradisce, fa.
xp per i file NON usa l'unicode ma un proprio standard windows-qualcosa
XP internamente supporta UTF-16 fino alla BMP, poi ha degli stratagemmi per supportare la SMP.
Sono i programmatori pigri che non scomodano le funzioni che supportano le wide string e i wide char, ma utilizzano char a 8 bit.
Sono i programmatori pigri che non scomodano le funzioni che supportano le wide string e i wide char, ma utilizzano char a 8 bit.
scusa ma per il nome dei file che colpa ne hanno i programmatori (se non quelli microsoft)? ogni volta che sn su linux i nomi dei file cn lettere accentate sn tutti strani
nn mi pare....cmq sapevo che windows come codifica dei caratteri usava Windows-1252.....verificherò...
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".