Torna indietro   Hardware Upgrade Forum > Componenti Hardware > Processori

Le soluzioni FSP per il 2026: potenza e IA al centro
Le soluzioni FSP per il 2026: potenza e IA al centro
In occasione del Tech Tour 2025 della European Hardware Association abbiamo incontrato a Taiwan FSP, azienda impegnata nella produzione di alimentatori, chassis e soluzioni di raffreddamento tanto per clienti OEM come a proprio marchio. Potenze sempre più elevate negli alimentatori per far fronte alle necessità delle elaborazioni di intelligenza artificiale.
AWS annuncia European Sovereign Cloud, il cloud sovrano per convincere l'Europa
AWS annuncia European Sovereign Cloud, il cloud sovrano per convincere l'Europa
AWS è il principale operatore di servizi cloud al mondo e da tempo parla delle misure che mette in atto per garantire una maggiore sovranità alle organizzazioni europee. L'azienda ha ora lanciato AWS European Sovereign Cloud, una soluzione specificamente progettata per essere separata e distinta dal cloud "normale" e offrire maggiori tutele e garanzie di sovranità
Redmi Note 15 Pro+ 5G: autonomia monstre e display luminoso, ma il prezzo è alto
Redmi Note 15 Pro+ 5G: autonomia monstre e display luminoso, ma il prezzo è alto
Xiaomi ha portato sul mercato internazionale la nuova serie Redmi Note, che rappresenta spesso una delle migliori scelte per chi non vuole spendere molto. Il modello 15 Pro+ punta tutto su una batteria capiente e su un ampio display luminoso, sacrificando qualcosa in termini di potenza bruta e velocità di ricarica
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 13-01-2026, 21:12   #301
mikael84
Moderatore
 
L'Avatar di mikael84
 
Iscritto dal: Mar 2007
Messaggi: 22723
Quote:
Originariamente inviato da paolo.oliva2 Guarda i messaggi
Zen 6, N2P e L3 impilata: perché AMD tace al CES

Dal punto di vista tecnico, il passaggio da N4P a N2P porta un incremento di densità di circa 20–25%
E' molto più alta.
Ti faccio un esempio. Se creassimo zen5 con 12 core e 48mb l3, saremmo a circa 100mm2, quindi in un 70mm2, ti servirebbe una densità del 40% in più ma, c'è un ma, buona parte dei transistor verrà speso pure per IPC.
Zen5 per aumentare l'IPC ha speso quasi il 30% di transistor, di conseguenza, applicando una quota di transistor per IPC equivalente su zen6, avremmo circa un 70% tra core e cache, e tutti quei transistor dovranno stare su un 70-80mm2 (più verso la prima).

Già tra i 7nm ed i primi 5nm di zen4 a celle mod, abbiamo visto quasi il 60% in più a pari core.
__________________
Ryzen 5800x3D - Msi B450TH - Corsair 32gb 3600 lpx - Red Devil RX 9070XT - samsung 860 pro 1tb - 4tb storage - Acer g-sync xb270hu - AOC CU34G2XPD - MSI MPG A850G atx3.0
mikael84 è offline   Rispondi citando il messaggio o parte di esso
Old 13-01-2026, 22:16   #302
paolo.oliva2
Senior Member
 
L'Avatar di paolo.oliva2
 
Iscritto dal: Jan 2002
Città: Urbino (PU)
Messaggi: 31971
Quote:
Originariamente inviato da ninja750 Guarda i messaggi
?

il mio 5800x3d ha 96mb di cache
ma anche 7800x3d e 9800x3d

Quote:
Originariamente inviato da Ubro92 Guarda i messaggi
Penso intendesse il 9950X3D2, che ha 64mb di L3 interna più altri 128mb dati dai due stack da 64mb di 3d v-cache per CCD.

Comunque con Zen6, il ccd passa a 12 core, quindi già di base avremo 48mb di L3 anche per il taglio da 8 core.
Io intendo il chiplet... 4MB/core + L3 3D 8MB/core, totale 12MB/core.

Se il chiplet è X8 = L3 chiplet 32MB (4MB/core * 8 core) ed L3 3D (8MB/core * 8 core) = 64MB, per avere 96MB (12MB/core * 8 core)
Se il chiplet è X12, = L3 on die 48MB + 96MB impilata = 144MB
Se il chiplet è X16 = L3 on die 64MB + 128MB impilata = 192MB totale.

Quote:
Originariamente inviato da mikael84 Guarda i messaggi
E' molto più alta.
Ti faccio un esempio. Se creassimo zen5 con 12 core e 48mb l3, saremmo a circa 100mm2, quindi in un 70mm2, ti servirebbe una densità del 40% in più ma, c'è un ma, buona parte dei transistor verrà speso pure per IPC.
Zen5 per aumentare l'IPC ha speso quasi il 30% di transistor, di conseguenza, applicando una quota di transistor per IPC equivalente su zen6, avremmo circa un 70% tra core e cache, e tutti quei transistor dovranno stare su un 70-80mm2 (più verso la prima).

Già tra i 7nm ed i primi 5nm di zen4 a celle mod, abbiamo visto quasi il 60% in più a pari core.
Però a prescindere dall'aumento della densità dell'N2P sull'N4P... l'impilazione della L3 3D viene sfruttata al momento unicamente per aumentare la L3 del Chiplet senza aumentare l'area del chiplet ed aggiunta su un PP più economico.
Ma questo inquadrando il limite di uno stack (o come si chiama). Ma era stato detto che nel tempo si potevano avere fino a 3 layer aggiuntivi.
Ora... se lo si applicasse ad un Zen5, vorrebbe dire 64MB x 3 = 192MB al posto di 64MB.
Ed è questo il punto... anzichè realizzare un chiplet con X12 + L3 48MB, allora tantovarrebbe realizzare un chiplet senza L3 e demandare l'intera L3 impilata... ed utilizzare l'area del chiplet che altrimenti sarebbe destinata alla L3, sostituendola con dei core.

Cioè, brevemente, se l'area del chiplet fosse 3/4 per i core e 1/4 per la L3 (mettendo valori a caso), impilando totalmente TUTTA la L3, si potrebbe, a pari area/costo, aumentare di 1/4 il core-count ed impilare con 1 stack la L3 che altrimenti sarebbe sul die (4MB/core) e, con 3 stack, si impilerebbero gli altri 8MB/core che sarebbe l'equivalente della L3 3D attuale.

Un 2 anni fa, forse 3, quando si parlò di impilazione, si disse che al momento era prevista per la L3 ed a 1 livello, ma che sarebbe stato possibile implementare questa tecnologia non solamente per la L3 ma anche per CCX e quant'altro, e che si poteva arrivare a 3 livelli.
Considerando che la L3 impilata è su un PP più economico e che il costo dell'N2P a wafer è alto, spostare tutta la L3 con l'impoilazione liberando così il chiplet e aumentare il core-count (facendo così anche scendere il costo a core), non sarebbe un vantaggio da poco.

Ultima modifica di paolo.oliva2 : 14-01-2026 alle 03:43.
paolo.oliva2 è offline   Rispondi citando il messaggio o parte di esso
Old 14-01-2026, 03:51   #303
paolo.oliva2
Senior Member
 
L'Avatar di paolo.oliva2
 
Iscritto dal: Jan 2002
Città: Urbino (PU)
Messaggi: 31971
@Mikael84



https://wccftech.com/amd-epyc-venice...-dual-io-dies/

CCD Zen5C X16 N3E 85mm2 --> CCD Zen6C X32 N2 (N2P risulterebbe da altre fonti) 155mm2

Allora, allacciandomi al post precedente:

CCD Zen6C X32 = 155mm2

Considerando che la versione C è del 40% più densa del "liscio", un CCD Zen6 X32 sarebbe

CCD Zen6C X32 = 155 mm² → versione normale Zen6 ≈258 mm²

CCD Zen6 normale X16 e X12 (lineare per core+cache)

X16 = 16/32 × 258 ≈ 129 mm²
X12 = 12/32 × 258 ≈ 97 mm²

Considerando il rapporto L3 vs Core come con Zen5 (22,4% del die, come hai postato te nel TH Zen5)

Zen6 X33 258mm2, area L3 = 57,8 mm²
CCD Zen6 X32 senza L3 = 200,2 mm²
CCD Zen6 X16 senza L3 = 100,1 mm²
CCD Zen6 X12 senza L3 = 75,0 mm²

Diciamo che AMD se volesse far stare tra 70 e 80mm2 un CCD X6, dovrebbe essere X12 ma senza L3, cioè 76mm2



Poi c'è un altro punto... la resa attuale dell'N2P

Zen6C è la versione densa di Zen6, si presume con lo stesso rapporto (-40%) dei precedenti Zen4C vs Zen4 e Zen5C vs Zen5.
Quindi un chiplet X32 Zen6C di 155mm2 in realtà corrisponderebbe a un chiplet di 258mm2 (per numero di transistor) se fosse Zen6 (tra l'altro è un calcolo pessimistico, perchè Zen6C ha meno L3 di Zen6, e casisticamente, il transistor difettoso è più "facile" nelle parti logiche rispetto alla L3).
Ora... per un chiplet del genere, la resa dell'N2P dovrebbe essere almeno dell'81% per essere commerciabile, non stiamo parlando di un PP acerbo, ma di un PP ma di un PP già in produzione stabile, con difetti/cm² compatibili con chiplet ad alta densità.
Ed è questo il punto... considerando il chiplet Zen6 X12 desktop/Threadripper/Epyc, con le opportune proporzioni di area (97mm2 un chiplet Zen6 X12 con 48MB di L3), la resa aumenterebbe al 91% (< transisator a die, > resa).

Visto che AMD parla di sistemi AI basati su Epyc X256 Zen6C entro il 1° semestre 2026 (entro 5 mesi), è ovvio arrivare alla conclusione che un chiplet Zen6 X12, sempre sull'N2P, possa avere una resa accettabile anche ora.

E poi c'è un altro dubbio... Intel, ad esempio con il 18A, per aumentare la resa parte con la produzione in volumi di Panther, un die relativamente piccolo, aspettando un aumento della resa (più infornate = > resa) per poi passare a Nova e successivamente a Xeon.
A confronto, AMD, per l'N2P, starebbe partendo da Xeon (per giunta pure la versione densa), il peggio per la resa. A che pro?

Ultima modifica di paolo.oliva2 : 15-01-2026 alle 20:43.
paolo.oliva2 è offline   Rispondi citando il messaggio o parte di esso
Old 14-01-2026, 13:37   #304
mikael84
Moderatore
 
L'Avatar di mikael84
 
Iscritto dal: Mar 2007
Messaggi: 22723
Per fare una stima più accurata, servirebbero i transistor di zen6 C, non solo il die, perchè quei core, sono molto più densi di transistor.
Ad oggi non conosciamo neppure quelli di zen5C ma, potremmo provare a calcolarli. Zen5 ha il 27% di transistor in più rispetto a zen4, quindi se proviamo ad applicare lo stesso quantitativo, vengono fuori 11,5mtransistor circa, e torniamo vicini al 40% tra liscio e base.

11500mt, su un 85mm2, sono appena 135mt x mm2, ma come abbiamo visto pure per intel, questi 3nm sono pessimi lato densità.

Come detto nel post precedente, avendo i dati di zen5, possiamo stimare che zen5 con 12 core e 48mb sarebbe da 100mm2, no l3 verrebbe circa 85, a questo però bisogna sapere quanti saranno i transistor per IPC e clock e.
Ipotizzando il 70% tra IPC (30%) e core count/cache dovremmo toccare il 70% di transistor, quindi circa 14200.

Ecco, se avessimo avuto i transistor insieme al die di zen6c (questo fa tutta la differenza), potevamo capire la densità dei 2nP applicati al circuito, e da li, calcolarci realmente i possibili die, che per limiti d packaging non possono certo essere >100mm2.

Quote:
Originariamente inviato da paolo.oliva2 Guarda i messaggi
Io intendo il chiplet... 4MB/core + L3 3D 8MB/core, totale 12MB/core.

Se il chiplet è X8 = L3 chiplet 32MB (4MB/core * 8 core) ed L3 3D (8MB/core * 8 core) = 64MB, per avere 96MB (12MB/core * 8 core)
Se il chiplet è X12, = L3 on die 48MB + 96MB impilata = 144MB
Se il chiplet è X16 = L3 on die 64MB + 128MB impilata = 192MB totale.



Però a prescindere dall'aumento della densità dell'N2P sull'N4P... l'impilazione della L3 3D viene sfruttata al momento unicamente per aumentare la L3 del Chiplet senza aumentare l'area del chiplet ed aggiunta su un PP più economico.
Ma questo inquadrando il limite di uno stack (o come si chiama). Ma era stato detto che nel tempo si potevano avere fino a 3 layer aggiuntivi.
.
Levare la cache è possibile, ma i costi di packaging sarebbero più elevati, rispetto a risparmiare quei pochi mm2, pensa che zen5C, mercato pro, è uscito addirittura senza l3 impilata. Tuttavia dipende anche da quanto saranno grandi i die e dalla densità che si ritroveranno, ma presumo abbiano fatto bene i calcoli.
La CPU più economica, una X8 (x6 non penso lo facciano, salvo più avanti, sarebbe un x4 attuale), avrebbe costi ben più alti di un 9800x3d, tra l'altro vincolato sempre alla tensione della 3dcache, e latenze un pò più alte di base, oltre che al clock.
__________________
Ryzen 5800x3D - Msi B450TH - Corsair 32gb 3600 lpx - Red Devil RX 9070XT - samsung 860 pro 1tb - 4tb storage - Acer g-sync xb270hu - AOC CU34G2XPD - MSI MPG A850G atx3.0

Ultima modifica di mikael84 : 14-01-2026 alle 13:47.
mikael84 è offline   Rispondi citando il messaggio o parte di esso
Old 16-01-2026, 01:25   #305
paolo.oliva2
Senior Member
 
L'Avatar di paolo.oliva2
 
Iscritto dal: Jan 2002
Città: Urbino (PU)
Messaggi: 31971
After Stacked L3, AMD Is Now Exploring Ways To Stack Even The L2 Cache On Its Future Chips With Better Latency Than Traditional Designs

Da latenza 14 su 2D, si passa a 12 su 3D


Image Source: AMD Patent

Qui il link al brevetto



https://patents.google.com/patent/US...S20260003794A1

Ultima modifica di paolo.oliva2 : 16-01-2026 alle 01:33.
paolo.oliva2 è offline   Rispondi citando il messaggio o parte di esso
Old 16-01-2026, 11:13   #306
BitCrafter
Member
 
Iscritto dal: Oct 2025
Messaggi: 127
Mi domando come faranno queste CPU a prendere il volo visto il ramageddon.
BitCrafter è offline   Rispondi citando il messaggio o parte di esso
Old 16-01-2026, 11:29   #307
ninja750
Senior Member
 
L'Avatar di ninja750
 
Iscritto dal: Sep 2003
Città: Torino
Messaggi: 21313
Quote:
Originariamente inviato da paolo.oliva2 Guarda i messaggi
After Stacked L3, AMD Is Now Exploring Ways To Stack Even The L2 Cache On Its Future Chips With Better Latency Than Traditional Designs

Da latenza 14 su 2D, si passa a 12 su 3D
facciamo cpu massimo dual core ma 1gb di cache impilata
ninja750 è offline   Rispondi citando il messaggio o parte di esso
Old 16-01-2026, 15:28   #308
paolo.oliva2
Senior Member
 
L'Avatar di paolo.oliva2
 
Iscritto dal: Jan 2002
Città: Urbino (PU)
Messaggi: 31971
Perchè?
Non è un concetto per diminuire il core-count, ma per ottimizzare il PP più spinto (e costoso) per sfruttare al massimo il limite attuale del silicio a 360°.

Una CPU attuale vede in primis un limite di progetto (area, costi, PPT) verso il core-count ed ancor più se vista come APU (la dimensione iGPU).

Realizzare un X16/32TH + una iGPU da 40CU sull'N4P ha dell'incredibile... ma se la stessa fosse realizzata eliminando la L2 ed L3 dall'area silicio die impilandola, si avrebbe un plus di area compresa una diminuzione dei costi... quindi un aumento dell'IPC da progetto (considerando il limite IPC (aumento delle ALU) un limite rapportato all'area/core-count)), un aumento del core-count o un aumento dei CU lato iGPU, o ambedue, oltre al fatto che aumentare la dimensione delle cache è l'unico mezzo oggi possibile per ovviare alle latenze/banda/costi della DDR5.

Facendo un esempio... un X16/32TH + iGPU su N4P vedrebbe un aumento architetturale con il passaggio sull'N2P (IPC, core-count, iGPU).
Mettiamo dei numeri a caso..., se il passaggio dall'N4P all'N2P comporta un aumento del 30% della densità transistor e l'impilazione L2/L3 un aumento del numero dei transistor del 50%, concettualmente sarebbe possibile anche pareggiare l'aumento d'efficienza del nodo più spinto aumentando il core-count.
Esempio... X16 N4P = stessa efficienza di un X12 N2P (prestazione MT = frequenza core * n core... X12 N2P = frequenze più alte per pareggiare prestazionalmente un X16 N4P, > efficienza N2P vs N4P persa).

AMD, secondo me, non sta finalizzando per ottenere prestazioni maggiori, ma per ottenere un target di prestazione con il minor costo produzione possibile.

Se da un X16/32TH + 40CU sull'N4P si potrebbe avere un X16/32TH + 60CU sull'N2P ed un X16/32TH + 80CU sul 16A, riuscire ad offrire un X16/32TH + 60CU sull'N4P e/o un X16/32TH + 80CU sull'N2P al posto del 16A, rappresenterebbe un vantaggio enorme, semplicemente perchè abbatterebbe i costi, e di qui un listino con ampio margine vs concorrenza che risica.

https://www.neowin.net/news/amds-new...ul-and-faster/

Il nuovo brevetto di AMD suggerisce che le CPU V-cache Ryzen 3D potrebbero diventare molto più potenti e veloci

Quote:
Compared to 3D V-cache CPUs, conventional planar cached CPUs with no 3D stacked cache have higher latencies and energy costs. This means lower performance and efficiency, respectively. By keeping those benefits in mind, AMD’s new 3D L2 cache memory design claims to reduce the number of cycles required for accessing a typical 1 MB L2 cache memory from 14 cycles down to just 12 cycles.
While this may not seem like a lot, in CPU architecture designing, it is plenty to get excited about, as even shaving off bits like this means a lot for the overall end performance and efficiency. For context, a typical L2 cache has 10-50 cycles, so this is definitely some of the best.
If you are wondering how AMD is making it possible, the patent notes that stacked dies are connected by connection vias like through‑silicon vias (TSVs) or bond pad vias (BPVs) for vertical silicon-to-silicon communication, and these connection vias are routed through the center, thus shortening the wire stages or pipe stages. Also, by routing the via connections through the center of the stacked dies, AMD creates a symmetrical or balanced structure that should help ensure that data access times are uniform across all layers. This is also why the patent is called "Balanced Latency Stacked cache".
The patent is still pending so it remains to be seen what happens. Of course just because it is being filed does not mean it will come to the market. There can be a lot of difference between a theoretical expectation and the real-world performance.

Ultima modifica di paolo.oliva2 : 16-01-2026 alle 15:43.
paolo.oliva2 è offline   Rispondi citando il messaggio o parte di esso
Old 16-01-2026, 19:15   #309
nikolis
Senior Member
 
L'Avatar di nikolis
 
Iscritto dal: Jul 2001
Città: Napoli-Hellas
Messaggi: 603
Il brevetto US20260003794A1 di Advanced Micro Devices Inc descrive un’architettura di stacked cache progettata per eliminare l’aumento di latenza tipico delle cache di grandi dimensioni. L’idea chiave è posizionare la logica di controllo e i tag al centro del sistema, con connessioni verticali (TSV o BPV) anch’esse centrate. In questo modo le distanze fisiche verso tutte le porzioni della cache risultano simmetriche, garantendo latenze bilanciate. A differenza delle cache planari tradizionali, non sono necessari stadi di pipeline aggiuntivi per raggiungere le aree più lontane. Il risultato è che una cache più grande può offrire la stessa o addirittura una minore latenza rispetto a una più piccola. Il brevetto si applica non solo alla L3, ma esplicitamente anche alla L2, oltre che a SRAM o DRAM impilate. Un aspetto rilevante è che il tag lookup avviene prima dell’accesso verticale, riducendo consumi e tempi di attivazione. In prospettiva, questa soluzione apre la strada a L2 stackate per core senza penalità di latenza, con benefici evidenti in termini di performance per watt e scalabilità futura.
__________________
MacBook Air M1 - MacMini M4
nikolis è offline   Rispondi citando il messaggio o parte di esso
Old 17-01-2026, 01:11   #310
paolo.oliva2
Senior Member
 
L'Avatar di paolo.oliva2
 
Iscritto dal: Jan 2002
Città: Urbino (PU)
Messaggi: 31971


Ogni chiplet X8 ha solo L2 + core, nessuna L3 fisica.

L3 condivisa impilata 3D fuori dai chiplet (32MB * 3) → 96 MB, 48 vie.

Accesso dinamico:
Se solo 1 chiplet è sotto carico (es. gioco), quel chiplet vede tutta la L3 da 96 MB, come se avesse un vero 3D stack.
Se più chiplet lavorano, la L3 viene condivisa e gestita dal controller (48 vie).
Risultato: effetto “3D” per un chiplet sotto carico senza avere L3 impilata su un chiplet (esempio 9950X3D)

-------------------------

https://www.tomshardware.com/tech-in...ving-next-year



Parametrizzando con l'N4P (ChatGPT)



Applicazione diretta al 9950X N4P 230W (170W TDP) con X prestazioni MT

N3E 230W → 9950X N4P a ~250W

N2P 230W → 9950X N4P a ~297W

A16 230W → 9950X N4P a ~317–324W

--------------------

Core-count
X16 → X24 = +50% core

Scaling reale MT a TDP fisso: ~+30%
Nodo (N4P → N2P / A16)

Efficienza: +30–40%
Impatto MT @ TDP fisso: ~+30–35%

IPC Zen 6 (stime diffuse)
+10–12%

Totale +90–97% teorico massimo

fattori reali di perdita:
IF / memory
scheduling
thermal density
non-linear MT scaling
Riduzione prudente: –20–25%

= +65%/+77%

Il +70% dichiarato da AMD non è marketing: deriva dalla combinazione di X8→X12 (+30% MT @ TDP fisso), nodo N2P/A16 (+30–35% efficienza) e IPC Zen 6 (~+10%). A parità di consumo, un Zen 6 X24 equivale a un 9950X che dovrebbe spingersi verso 390 W.

Ultima modifica di paolo.oliva2 : 17-01-2026 alle 18:59.
paolo.oliva2 è offline   Rispondi citando il messaggio o parte di esso
Old 19-01-2026, 14:46   #311
ninja750
Senior Member
 
L'Avatar di ninja750
 
Iscritto dal: Sep 2003
Città: Torino
Messaggi: 21313
primi test 9850x3D 5750mhz allcore

https://www.overclock.net/threads/x8...#post-29550046
ninja750 è offline   Rispondi citando il messaggio o parte di esso
Old 19-01-2026, 21:04   #312
nikolis
Senior Member
 
L'Avatar di nikolis
 
Iscritto dal: Jul 2001
Città: Napoli-Hellas
Messaggi: 603
Si può immaginare un design in cui ogni chiplet X8 contiene solo core + L2 (nessuna L3 locale) e la cache di ultimo livello viene spostata in un die dedicato impilato 3D e condiviso, per esempio 96 MB totali (32 MB × 3) con 48 vie: in pratica non sarebbe più una “L3 Zen classica” per-CCD, ma una LLC esterna che assomiglia a una L4, quindi molto capiente ma inevitabilmente più vincolata da latenza e banda perché l’accesso avviene via fabric/die-to-die. Un controller centrale potrebbe gestire la condivisione con politiche di QoS e partizionamento delle vie/slice, così che quando un solo chiplet è realmente sotto carico gli altri non “sporchino” la cache e quel chiplet possa beneficiare della massima capacità disponibile; tuttavia questo non replica automaticamente l’effetto X3D attuale, perché la V-Cache funziona soprattutto grazie alla località (latenza/banda) della cache impilata direttamente sopra il CCD. Il vantaggio plausibile di una cache condivisa impilata sarebbe quindi più “sistemico” (ridurre miss in DRAM e traffico memoria su working set grandi, migliorare alcuni carichi misti) che non un equivalente 1:1 della V-Cache per gaming, mentre i punti critici sarebbero la coerenza (directory/snoop filtering), l’eventuale hotspot sul controller e lo scaling non lineare quando più CCD competono per gli stessi link. In sintesi: architettura credibile come “shared stacked LLC/L4 con QoS dinamico”, ma da presentare come strada diversa dalla V-Cache locale, non come sostituzione diretta.
__________________
MacBook Air M1 - MacMini M4
nikolis è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Le soluzioni FSP per il 2026: potenza e IA al centro Le soluzioni FSP per il 2026: potenza e IA al ce...
AWS annuncia European Sovereign Cloud, il cloud sovrano per convincere l'Europa AWS annuncia European Sovereign Cloud, il cloud ...
Redmi Note 15 Pro+ 5G: autonomia monstre e display luminoso, ma il prezzo è alto Redmi Note 15 Pro+ 5G: autonomia monstre e displ...
HONOR Magic 8 Pro: ecco il primo TOP del 2026! La recensione HONOR Magic 8 Pro: ecco il primo TOP del 2026! L...
Insta360 Link 2 Pro e 2C Pro: le webcam 4K che ti seguono, anche con gimbal integrata Insta360 Link 2 Pro e 2C Pro: le webcam 4K che t...
NVIDIA affina (di nuovo) Vera Rubin in v...
La migliore scopa elettrica low cost sce...
AMD Ryzen 9800X3D: nuovi casi di unit&ag...
ECOVACS DEEBOT MINI è tornato al ...
Oggi in sconto su Amazon ci sono gli iPh...
OpenAI conferma: primo dispositivo hardw...
Nuovi arrivi per Lefant M330Pro, sempre ...
Un'auto su cinque è cinese: cosa ...
La cometa interstellare 3I/ATLAS e le nu...
Blue Origin presenta TeraWave, una nuova...
Compra una GeForce RTX 5080 venduta e sp...
Telescopio spaziale James Webb: osservat...
L'IA non ha portato quasi nessun benefic...
Sony LinkBuds Clip, gli auricolari open ...
La fibra è sempre più diff...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 08:21.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v