Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'' per spingere gli handheld gaming PC al massimo
Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'' per spingere gli handheld gaming PC al massimo
Lenovo Legion Go 2 è la nuova handheld PC gaming con processore AMD Ryzen Z2 Extreme (8 core Zen 5/5c, GPU RDNA 3.5 16 CU) e schermo OLED 8,8" 1920x1200 144Hz. È dotata anche di controller rimovibili TrueStrike con joystick Hall effect e una batteria da 74Wh. Rispetto al dispositivo che l'ha preceduta, migliora ergonomia e prestazioni a basse risoluzioni, ma pesa 920g e costa 1.299€ nella configurazione con 32GB RAM/1TB SSD e Z2 Extreme
AWS re:Invent 2025: inizia l'era dell'AI-as-a-Service con al centro gli agenti
AWS re:Invent 2025: inizia l'era dell'AI-as-a-Service con al centro gli agenti
A re:Invent 2025, AWS mostra un’evoluzione profonda della propria strategia: l’IA diventa una piattaforma di servizi sempre più pronta all’uso, con agenti e modelli preconfigurati che accelerano lo sviluppo, mentre il cloud resta la base imprescindibile per governare dati, complessità e lock-in in uno scenario sempre più orientato all’hybrid cloud
Cos'è la bolla dell'IA e perché se ne parla
Cos'è la bolla dell'IA e perché se ne parla
Si parla molto ultimamente di "bolla dell'intelligenza artificiale", ma non è sempre chiaro perché: l'IA è una tecnologia molto promettente e che ha già cambiato molte cose dentro e fuori le aziende, ma ci sono enormi aspettative che stanno gonfiando a dismisura i valori delle azioni e distorcendo il mercato. Il che, com'è facile intuire, può portare a una ripetizione della "bolla dotcom", e forse anche di quella dei mutui subprime. Vediamo perché
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 21-11-2023, 14:41   #1
Redazione di Hardware Upg
www.hwupgrade.it
 
Iscritto dal: Jul 2001
Messaggi: 75166
Link alla notizia: https://edge9.hwupgrade.it/news/inno...ta_121964.html

Ormai quasi non sorprende più che gli annunci delle grandi aziende tecnologiche ruotino attorno all'IA, e Microsoft continua questa tendenza a Ignite 2023 con moltissimi annunci legati proprio all'intelligenza artificiale

Click sul link per visualizzare la notizia.
Redazione di Hardware Upg è offline   Rispondi citando il messaggio o parte di esso
Old 21-11-2023, 18:39   #2
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 6273
Wow! Mi chiedo quanti si rendono conto del disastro in slow-motion che sta per rilasciare Microsoft.

Copilot Dashboard sembra fatto apposta per monitorare facilmente i dipendenti ma traendo le conclusioni sbagliate sui dati che vengono presentati.

Copilot Studio si presta bene al furto di informazioni bypassando tutti gli attuali meccanismi di cybersecurity.

Copilot for Azure promette cose fantastiche, riduce il numero di sistemisti necessari per gestire una certa infrastruttura ed al tempo stesso apre una miriade di nuovi vettori d'attacco tramite sovversione di LLM.

La cosa più spettacolare é il "Customer Copyright Commitment": in pratica dicono che usando i loro prodotti le violazioni di Copyright saranno inevitabili e che saranno caXXi tuoi gestirne le conseguenze.

Un sacco di nuove opportunità per sviluppatori, tecnici, hacker ed avvocati che comprendono davvero le potenzialità di quei prodotti.
LMCH è offline   Rispondi citando il messaggio o parte di esso
Old 21-11-2023, 20:07   #3
k0nt3
Senior Member
 
Iscritto dal: Dec 2005
Messaggi: 7260
Quote:
Originariamente inviato da LMCH Guarda i messaggi
Wow! Mi chiedo quanti si rendono conto del disastro in slow-motion che sta per rilasciare Microsoft.
Se non capisci l'importanza di quello che sta avvenendo a livello enterprise non è colpa di Microsoft. Loro possono anche fallire, ma il concetto di "copilot" rimarrà ed è il futuro a cui ti devi abituare. Tant'è che aziende come Visa, BP, Honda, Pfizer, Accenture, EY, KPMG, Kyndryl e PwC lo usavano già in anteprima e adesso si stanno aggiungendo altre grosse realtà. Ma evidentemente non hanno nessuno skillato come LMCH ti consiglio di mandare il CV

Quote:
Originariamente inviato da LMCH Guarda i messaggi
Copilot Dashboard sembra fatto apposta per monitorare facilmente i dipendenti ma traendo le conclusioni sbagliate sui dati che vengono presentati.
Spiegati meglio, in che modo monitora i dipendenti? E' fatto per misurare le performance di Copilot, non dei dipendenti.

Quote:
Originariamente inviato da LMCH Guarda i messaggi
Copilot Studio si presta bene al furto di informazioni bypassando tutti gli attuali meccanismi di cybersecurity.
In che modo? Tieni conto che Copilot ha accesso soltanto alle informazioni a cui ha accesso l'utente che ne fa uso.

Quote:
Originariamente inviato da LMCH Guarda i messaggi
Copilot for Azure promette cose fantastiche, riduce il numero di sistemisti necessari per gestire una certa infrastruttura ed al tempo stesso apre una miriade di nuovi vettori d'attacco tramite sovversione di LLM.
Fammi un esempio di vettore d'attacco tramite sovversione di LLM sfruttabile tramite Copilot for Azure.

Quote:
Originariamente inviato da LMCH Guarda i messaggi
La cosa più spettacolare é il "Customer Copyright Commitment": in pratica dicono che usando i loro prodotti le violazioni di Copyright saranno inevitabili e che saranno caXXi tuoi gestirne le conseguenze.

Un sacco di nuove opportunità per sviluppatori, tecnici, hacker ed avvocati che comprendono davvero le potenzialità di quei prodotti.
Questo è perchè hai completamente travisato l'obiettivo dell'IA generativa. Non sostituisce il cervello dei dipendenti, ma semplicemente ne aumenta la produttività.
k0nt3 è offline   Rispondi citando il messaggio o parte di esso
Old 22-11-2023, 17:00   #4
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 6273
Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Se non capisci l'importanza di quello che sta avvenendo a livello enterprise non è colpa di Microsoft. Loro possono anche fallire, ma il concetto di "copilot" rimarrà ed è il futuro a cui ti devi abituare. Tant'è che aziende come Visa, BP, Honda, Pfizer, Accenture, EY, KPMG, Kyndryl e PwC lo usavano già in anteprima e adesso si stanno aggiungendo altre grosse realtà.
La capisco eccome l'importanza e non mi limito alle affermazioni ottimistiche di chi commercializza il prodotto.
E nota che io ho parlato specificamente di Microsoft e dei prodotti annunciati, visto che non è chiaro cosa/come le aziende citate usando di quei tool e se si tratta di test run o uso su larga scala.

Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Ma evidentemente non hanno nessuno skillato come LMCH ti consiglio di mandare il CV
Nah! Non mi interessa, lavoro in un settore totalmente diverso rispetto a quelli citati.
Paradossalmente ho seguito con estrema attenzione gli sviluppi dei LLM proprio per capire come integrarli nel nostro settore e quali potenziali vantaggi/svantaggi potrebbero portare. Diciamo che non sono rimasto impressionato, specialmente in base a quanto emerge dalle pubblicazioni sull'argomento e su come certe problematiche vengono aggirate.

Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Spiegati meglio, in che modo monitora i dipendenti? E' fatto per misurare le performance di Copilot, non dei dipendenti.
Il "trucco" sta nel criterio usato per suddividere in team un certo gruppo di dipendenti.
Dai un occhiata qui e nota i punti dove compare
"This metric is not based on Copilot usage", in base a come suddividi i dipendenti in team puoi valutare sia come cambia la loro produttività con copilot e sia estrarre indicatori sulla produttività dei team.

Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
In che modo? Tieni conto che Copilot ha accesso soltanto alle informazioni a cui ha accesso l'utente che ne fa uso.
E' scritto espressamente: "Copilot Studio è uno strumento "low code" per personalizzare Copilot usando i dati aziendali e creare modelli usabili dentro o fuori l'azienda, in base alle specifiche esigenze."

Considerando che le tecniche di sovversione dei LLM sono già ampiamente note, come fai ad essere sicuro di quali dati sono estraibili e quali no con opportune sessioni ad hoc ?

Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Fammi un esempio di vettore d'attacco tramite sovversione di LLM sfruttabile tramite Copilot for Azure.
Non è necessario fare un esempio specifico, basta notare quel che scrive Microsoft stessa "Use Copilot AI assistance to answer questions, author complex commands, and act on your behalf using natural language."


Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Questo è perchè hai completamente travisato l'obiettivo dell'IA generativa. Non sostituisce il cervello dei dipendenti, ma semplicemente ne aumenta la produttività.
Non è quello il punto.
Il punto è che quei prodotti basati su AI generative commercializzati da Microsoft possono violare dei copyright e tocca all'utente verificare che questo non succeda perchè in caso di rogne la colpa è del cliente e non di Microsoft.

Possibile che da parte di Microsoft non vi sia un minimo sforzo di mitigare la cosa ?
Eppure anche solo tentare automaticamente un match con elementi visuali o testuali soggetti a copyright dovrebbe essere nelle capacità di un LLM capace di violarli.
LMCH è offline   Rispondi citando il messaggio o parte di esso
Old 22-11-2023, 20:23   #5
k0nt3
Senior Member
 
Iscritto dal: Dec 2005
Messaggi: 7260
Quote:
Originariamente inviato da LMCH Guarda i messaggi
La capisco eccome l'importanza e non mi limito alle affermazioni ottimistiche di chi commercializza il prodotto.
E nota che io ho parlato specificamente di Microsoft e dei prodotti annunciati, visto che non è chiaro cosa/come le aziende citate usando di quei tool e se si tratta di test run o uso su larga scala.

Nah! Non mi interessa, lavoro in un settore totalmente diverso rispetto a quelli citati.
Paradossalmente ho seguito con estrema attenzione gli sviluppi dei LLM proprio per capire come integrarli nel nostro settore e quali potenziali vantaggi/svantaggi potrebbero portare. Diciamo che non sono rimasto impressionato, specialmente in base a quanto emerge dalle pubblicazioni sull'argomento e su come certe problematiche vengono aggirate.
Dipende dal settore e dal modello che si vuole usare, ma non c'è alcun dubbio che una IA possa essere di grosso aiuto per tantissimi lavori (compresa la programmazione che è quello che mi interessa maggiormente). Spero solo non reintroducano Clippy
Quote:
Originariamente inviato da LMCH Guarda i messaggi
Il "trucco" sta nel criterio usato per suddividere in team un certo gruppo di dipendenti.
Dai un occhiata qui e nota i punti dove compare
"This metric is not based on Copilot usage", in base a come suddividi i dipendenti in team puoi valutare sia come cambia la loro produttività con copilot e sia estrarre indicatori sulla produttività dei team.
Hai capito molto male: "Count of Teams meetings users across your organization over the past 28 days"
Con Teams si intende il software non un gruppo di persone, infatti quelle metriche sono aggregate a livello di intera organizzazione.
Quote:
Originariamente inviato da LMCH Guarda i messaggi
E' scritto espressamente: "Copilot Studio è uno strumento "low code" per personalizzare Copilot usando i dati aziendali e creare modelli usabili dentro o fuori l'azienda, in base alle specifiche esigenze."

Considerando che le tecniche di sovversione dei LLM sono già ampiamente note, come fai ad essere sicuro di quali dati sono estraibili e quali no con opportune sessioni ad hoc ?
Perchè Microsoft ha già tutta un'infrastruttura adatta allo scopo in Azure, motivo per cui è una delle poche aziende che può sviluppare qualcosa come Copilot.
Vedi https://learn.microsoft.com/en-us/mi...opilot-privacy
Quote:
Originariamente inviato da LMCH Guarda i messaggi
Non è necessario fare un esempio specifico, basta notare quel che scrive Microsoft stessa "Use Copilot AI assistance to answer questions, author complex commands, and act on your behalf using natural language."
E con questo? Se intendi che si possano estorcere informazioni a cui non dovresti avere accesso vedi la risposta precedente. Se invece intendi che un malintenzionato possa fargli apprendere nozioni pericolose è impossibile perchè il modello non viene addestrato usando gli input dati dagli utenti.
Quote:
Originariamente inviato da LMCH Guarda i messaggi
Non è quello il punto.
Il punto è che quei prodotti basati su AI generative commercializzati da Microsoft possono violare dei copyright e tocca all'utente verificare che questo non succeda perchè in caso di rogne la colpa è del cliente e non di Microsoft.

Possibile che da parte di Microsoft non vi sia un minimo sforzo di mitigare la cosa ?
Eppure anche solo tentare automaticamente un match con elementi visuali o testuali soggetti a copyright dovrebbe essere nelle capacità di un LLM capace di violarli.
Certo che tocca all'utente verificare quello che dice/fa l'IA, altrimenti sarebbe come dire che con l'Autopilot di Tesla puoi dormire mentre sei in viaggio. Io non lo farei, te?
k0nt3 è offline   Rispondi citando il messaggio o parte di esso
Old 25-11-2023, 00:55   #6
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 6273
Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Dipende dal settore e dal modello che si vuole usare, ma non c'è alcun dubbio che una IA possa essere di grosso aiuto per tantissimi lavori (compresa la programmazione che è quello che mi interessa maggiormente).
Dipende da cosa si intende per IA, una delle cose che mi crea parecchi problemi è che Microsoft sta puntando forte nel proporre i "suoi" prodotti bastati su algoritmi IA come se fossero delle "vere" IA per poi produrre roba come Microsoft Tay (il chatbot "nazista")

Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Spero solo non reintroducano Clippy
La slow-AI in Microsoft continua a fare tentativi a riguardo, prima Microsoft Bob, poi Clippy e gli altri "assistenti", poi Tay (il chatbot "convertito al nazismo") ...


Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Hai capito molto male: "Count of Teams meetings users across your organization over the past 28 days"
Con Teams si intende il software non un gruppo di persone, infatti quelle metriche sono aggregate a livello di intera organizzazione.
Eppure nel sito di Microsoft si trovano frasi come queste:
( link )
"To make the data in the Copilot for Microsoft 365 report anonymous, you must be a global administrator. This will hide identifiable information (using MD5 hashes) such as display name, email, and Microsoft Entra Object ID in report and their export."


Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Perchè Microsoft ha già tutta un'infrastruttura adatta allo scopo in Azure, motivo per cui è una delle poche aziende che può sviluppare qualcosa come Copilot.
Vedi https://learn.microsoft.com/en-us/mi...opilot-privacy
Il mio punto era che usando tool low-code un dipendente dell'azienda ACME deliberatamente o per errore può inserire nel modello reso accessibile informazioni che non dovrebbero uscir fuori dall'azienda senza che nessuno se ne accorga.

Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
E con questo? Se intendi che si possano estorcere informazioni a cui non dovresti avere accesso vedi la risposta precedente. Se invece intendi che un malintenzionato possa fargli apprendere nozioni pericolose è impossibile perchè il modello non viene addestrato usando gli input dati dagli utenti.
Ti sei scordato un malintenzionato entrato nel sistema che fa richieste al modello in modo tale che sia il modello a compiere azioni che producono fughe di informazioni oppure danni/malfunzionamenti all'infrastruttura per effetto combinato di richieste fatte da utenti diversi (e questo è solo uno dei possibili casi).

Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Certo che tocca all'utente verificare quello che dice/fa l'IA, altrimenti sarebbe come dire che con l'Autopilot di Tesla puoi dormire mentre sei in viaggio. Io non lo farei, te?
Il punto è che la stessa AI in teoria potrebbe fare tale verifica in modo più rapido ed esteso rispetto all'utente facendo un match di quanto prodotto con un database di copyright noti. Invece di proporre tale opzione almeno come funzionalità aggiuntiva a pagamento, hanno scelto di "fornire documentazione".
LMCH è offline   Rispondi citando il messaggio o parte di esso
Old 25-11-2023, 19:36   #7
k0nt3
Senior Member
 
Iscritto dal: Dec 2005
Messaggi: 7260
Quote:
Originariamente inviato da LMCH Guarda i messaggi
Dipende da cosa si intende per IA, una delle cose che mi crea parecchi problemi è che Microsoft sta puntando forte nel proporre i "suoi" prodotti bastati su algoritmi IA come se fossero delle "vere" IA per poi produrre roba come Microsoft Tay (il chatbot "nazista")


La slow-AI in Microsoft continua a fare tentativi a riguardo, prima Microsoft Bob, poi Clippy e gli altri "assistenti", poi Tay (il chatbot "convertito al nazismo") ...
Bravo, ottimo esempio di argomento fantoccio
Quote:
Originariamente inviato da LMCH Guarda i messaggi
Eppure nel sito di Microsoft si trovano frasi come queste:
( link )
"To make the data in the Copilot for Microsoft 365 report anonymous, you must be a global administrator. This will hide identifiable information (using MD5 hashes) such as display name, email, and Microsoft Entra Object ID in report and their export."
Perchè semplicemente non ammetti di aver preso un grosso abbaglio?
E' ovvio, i dati appartengono all'azienda che amministra l'organizzazione sul cloud, di conseguenza è l'amministratore dell'azienda che configura questo genere di cose in base alle policy aziendali. I dati non sono a disposizione di Microsoft come è spiegato nella pagina che avevo già linkato.
Quote:
Originariamente inviato da LMCH Guarda i messaggi
Il mio punto era che usando tool low-code un dipendente dell'azienda ACME deliberatamente o per errore può inserire nel modello reso accessibile informazioni che non dovrebbero uscir fuori dall'azienda senza che nessuno se ne accorga.
I meccanismi per mettere al sicuro i dati ci sono e non c'è niente di speciale riguardo a copilot, si tratta dell'infrastruttura già esistente su Azure con i propri log e le sue metriche da monitorare. Se mi dici che ci sono dei buchi lì allora mezzo mondo dovrebbe preoccuparsi perchè su Azure ci stanno dati ultra sensibili di aziende e governi piuttosto importanti.
Che poi ci siano gli incompetenti è vero, ma non ci si può fare niente, quello succedeva già prima.
Quote:
Originariamente inviato da LMCH Guarda i messaggi
Ti sei scordato un malintenzionato entrato nel sistema che fa richieste al modello in modo tale che sia il modello a compiere azioni che producono fughe di informazioni oppure danni/malfunzionamenti all'infrastruttura per effetto combinato di richieste fatte da utenti diversi (e questo è solo uno dei possibili casi).
Un malintenzionato non aumenta il proprio accesso al sistema tramite copilot, può accedere agli stessi dati con o senza copilot. Se non hai capito questo passaggio è anche inutile che ne discutiamo.
Quote:
Originariamente inviato da LMCH Guarda i messaggi
Il punto è che la stessa AI in teoria potrebbe fare tale verifica in modo più rapido ed esteso rispetto all'utente facendo un match di quanto prodotto con un database di copyright noti. Invece di proporre tale opzione almeno come funzionalità aggiuntiva a pagamento, hanno scelto di "fornire documentazione".
Te l'ho già detto, manda il CV che ti stanno aspettando

Ultima modifica di k0nt3 : 25-11-2023 alle 19:40.
k0nt3 è offline   Rispondi citando il messaggio o parte di esso
Old 26-11-2023, 12:11   #8
LMCH
Senior Member
 
Iscritto dal: Jan 2007
Messaggi: 6273
Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Bravo, ottimo esempio di argomento fantoccio
Mica tanto fantoccio, quello descritto è un approccio tipico di Microsoft.

Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Perchè semplicemente non ammetti di aver preso un grosso abbaglio?
E' ovvio, i dati appartengono all'azienda che amministra l'organizzazione sul cloud, di conseguenza è l'amministratore dell'azienda che configura questo genere di cose in base alle policy aziendali. I dati non sono a disposizione di Microsoft come è spiegato nella pagina che avevo già linkato.
Il mio punto era ed è che permette di monitorare i dipendenti, non che permette a Microsoft di monitorare i dipendenti di altre ditte.


Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
I meccanismi per mettere al sicuro i dati ci sono e non c'è niente di speciale riguardo a copilot, si tratta dell'infrastruttura già esistente su Azure con i propri log e le sue metriche da monitorare. Se mi dici che ci sono dei buchi lì allora mezzo mondo dovrebbe preoccuparsi perchè su Azure ci stanno dati ultra sensibili di aziende e governi piuttosto importanti.
Che poi ci siano gli incompetenti è vero, ma non ci si può fare niente, quello succedeva già prima.
Il mio punto è che si tratta di un NUOVO vettore di attacco e/o per exploit rispetto a quelli già noti. Non a caso parlavo di nuove opportunità per chi opera nel settore (cyberwarfare, cybersecurity e hacking di vario genere).

Poi ci sarebbe da aprire una parentesi su come viene delegata la gestione di dati strategici senza considerare a sufficienza l'aspetto della sicurezza (purtroppo c'è chi che per risparmiare spiccioli mette a rischio miliardi), ma è tutto un altro discorso.

Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Un malintenzionato non aumenta il proprio accesso al sistema tramite copilot, può accedere agli stessi dati con o senza copilot. Se non hai capito questo passaggio è anche inutile che ne discutiamo.
Il mio punto sta nel fatto che tramite copilot è molto più facile passare innosservati e sopratutto avere rapidamente una "mappa" del sistema e delle informazioni presenti senza attirare l'attenzione su di se.
Entrare in un sistema è la parte più facile, restarci dentro a lungo senza farsi beccare è dove si fanno i soldi trovando le cose più succose e/o si riesce a massimizzare le proprie possibilità di azione.

Quote:
Originariamente inviato da k0nt3 Guarda i messaggi
Te l'ho già detto, manda il CV che ti stanno aspettando
Veramente sono loro che cercano me.
LMCH è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'' per spingere gli handheld gaming PC al massimo Lenovo Legion Go 2: Ryzen Z2 Extreme e OLED 8,8'...
AWS re:Invent 2025: inizia l'era dell'AI-as-a-Service con al centro gli agenti AWS re:Invent 2025: inizia l'era dell'AI-as-a-Se...
Cos'è la bolla dell'IA e perché se ne parla Cos'è la bolla dell'IA e perché se...
BOOX Palma 2 Pro in prova: l'e-reader diventa a colori, e davvero tascabile BOOX Palma 2 Pro in prova: l'e-reader diventa a ...
FRITZ!Repeater 1700 estende la rete super-veloce Wi-Fi 7 FRITZ!Repeater 1700 estende la rete super-veloce...
Cloud sovrano: l'approccio di Broadcom c...
HONOR conferma l'arrivo in Italia di Mag...
La Cina sotto pressione impone maniglie ...
OpenAI integra le app in ChatGPT per tra...
NVIDIA sarebbe pronta a tagliare la prod...
Prezzo minimo storico per iPhone 16 Pro:...
Riot Games scopre una falla nei BIOS che...
Beats in super offerta su Amazon: aurico...
Batterie elettriche, Samsung SDI e Stell...
Clivet presenta Fullness, la pompa di ca...
SpaceX lancerà 167 razzi spaziali...
Yakuza Kiwami 3 e Dark Ties protagonisti...
Privacy a rischio: ecco la VPN che regis...
SpaceX ha annunciato che un satellite St...
ASUSTOR presenta i nuovi NAS Lockerstor ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 23:02.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v
1