|
|||||||
|
|
|
![]() |
|
|
Strumenti |
|
|
#41 |
|
Senior Member
Iscritto dal: Jun 2006
Città: Finalmente al di fuori del 'bel paese'
Messaggi: 694
|
Flux 2 è il modello, mentre ComfyUI è il programma che lo gestisce.
Per i video comunque come modello mi sembra buono il Wan 2.2, Flux 2 non l'ho mai usato, è valido? Tu conosci altri programmi validi oltre a ComfyUI? Il limite più grosso sono i 5 secondi o poco più di lunghezza che si riescono ad ottenere alla volta |
|
|
|
|
|
#42 |
|
Senior Member
Iscritto dal: Dec 2006
Messaggi: 842
|
di questi generatori video ne faccio a meno anche perche sono un utente normale, non vado a bruciare soldi letteralmente , se non sono un influencer con gia valanghe di soldi da investire , per fare video a casaccio senza senso e sembra che anche Seedance 2 faccia la stessa fine
ci sono sempre cause legali con disney e altre societa' |
|
|
|
|
|
#43 | |
|
Senior Member
Iscritto dal: Jul 1999
Città: Palermo
Messaggi: 7361
|
Quote:
Leggo commenti positivi per i video LTX 2.3 ma io l'ho trovato inferiore a WAN 2.2. Avendo una VGA con poca VRAM, 10GB, anche io ho un limite enorme... mi sono ripromesso di studiare soluzioni per fare video più lunghi. Fin'ora ComfyUI mi è sembra veramente il top, poi trovo dei workflow in giro che a volte fan fare un salto di qualità... è molto flessibile e lo aggiornano molto spesso.
__________________
Intel I9 13900K, Corsair iCUE H150i RGB ELITE, ASUS Prime Z790-A WIFI, 64GB DDR5 @6400MHz e ASUS TUF Gaming RTX 3080 OC |
|
|
|
|
|
|
#44 | ||
|
Senior Member
Iscritto dal: May 2020
Messaggi: 1438
|
Quote:
Sono un tipico esempio di tinkerbell effect: le tecnologie speculative esistono solo se ci crediamo abbastanza e battiamo le mani abbastanza forte. Se smettiamo di crederci e smettiamo di applaudire, allora possono cominciare a svanire, diventando sempre più immateriali fino a sparire. Avranno lo stesso successo che ha hanno avuto altre tecnologie come metaverso, blockchain, occhiali smart-3D, etc., esistono solo per chi ci crede. Quote:
__________________
Nel tempo dell'inganno universale, dire la verità è un atto rivoluzionario. George Orwell Il vero valore di una persona non si misura dai valori in cui sostiene di credere, ma da che cosa è disposto a fare per proteggerli. Se non pratichi i valori in cui credi, probabilmente non ci credi fino in fondo. Edward Snowden Coloro che rinuncerebbero alla libertà essenziale, per acquistare un po' di sicurezza temporanea, non meritano né libertà né sicurezza. Benjamin Franklin |
||
|
|
|
|
|
#45 | |
|
Senior Member
Iscritto dal: May 2020
Messaggi: 1438
|
Quote:
Ti consiglio di leggere i miei seguenti commenti: cos'è IA, a cosa serve realmente un LLM, alcuni articoli da leggere.
__________________
Nel tempo dell'inganno universale, dire la verità è un atto rivoluzionario. George Orwell Il vero valore di una persona non si misura dai valori in cui sostiene di credere, ma da che cosa è disposto a fare per proteggerli. Se non pratichi i valori in cui credi, probabilmente non ci credi fino in fondo. Edward Snowden Coloro che rinuncerebbero alla libertà essenziale, per acquistare un po' di sicurezza temporanea, non meritano né libertà né sicurezza. Benjamin Franklin |
|
|
|
|
|
|
#46 | |
|
Senior Member
Iscritto dal: Nov 2002
Messaggi: 6828
|
Quote:
I risultati sono sotto gli occhi di tutti, solo chi ha il prosciutto sugli occhi non vede. Per fortuna che le cose vanno avanti lo stesso. |
|
|
|
|
|
|
#47 | ||
|
Senior Member
Iscritto dal: May 2020
Messaggi: 1438
|
Quote:
Quote:
__________________
Nel tempo dell'inganno universale, dire la verità è un atto rivoluzionario. George Orwell Il vero valore di una persona non si misura dai valori in cui sostiene di credere, ma da che cosa è disposto a fare per proteggerli. Se non pratichi i valori in cui credi, probabilmente non ci credi fino in fondo. Edward Snowden Coloro che rinuncerebbero alla libertà essenziale, per acquistare un po' di sicurezza temporanea, non meritano né libertà né sicurezza. Benjamin Franklin |
||
|
|
|
|
|
#48 | |
|
Senior Member
Iscritto dal: Nov 2002
Messaggi: 6828
|
Quote:
https://www.hdblog.it/mercato/artico...i-settimanali/ Anche il Pentagono vuole questi servizi, anzi già li ha implementati, ma cosa vuoi che ne sappiano loro. Se non dessero risultati non li vorrebbe nessuno, ed invece guarda caso è tutto il contrario. Dai va là, se ha voglia l'altro utente di continuare sennò io la chiudo qua. Saluti. Ultima modifica di Unrue : 27-03-2026 alle 07:53. |
|
|
|
|
|
|
#49 | |
|
Senior Member
Iscritto dal: Oct 2025
Messaggi: 1164
|
Quote:
Il Pentagono, appunto, che son 100 anni che hanno una qualche guerra in corso.
__________________
"In politica, qualsiasi affermazione è vera solo nell'instante in cui la si dice" - G. Rotondi Challenges: Fallout 4 Survival Mode - Watch Dogs Legion Resistance Mode - Assassin's Creed Origins Nightmare - Cyberpunk 2077 Very Hard The most INSANE Bohemian Rhapsody Flashmob you will ever see!! |
|
|
|
|
|
|
#50 | |
|
Senior Member
Iscritto dal: Nov 2002
Messaggi: 6828
|
Quote:
|
|
|
|
|
|
|
#51 | |
|
Senior Member
Iscritto dal: Oct 2025
Messaggi: 1164
|
Quote:
Per quanto riguarda i tuoi link, ci pensa ChatGPT: # 1) “Non è cambiato nulla: solo più dati e potenza” **Parzialmente vero → ma fuorviante** * ✔️ È vero: scaling (dati + compute) è stato fondamentale * ❌ È falso: *non è cambiato nulla* Cambiamenti reali: * architettura **Transformer (2017)** → salto enorme rispetto a RNN/CNN * **in-context learning** → modelli che generalizzano senza retraining * **emergent abilities** → capacità non presenti nei modelli piccoli * **tool use + reasoning scaffolding** → uso pratico molto diverso dal ML classico 👉 Negli anni 90 non esisteva nulla di paragonabile a: * generare codice funzionante multi-file * riassumere documenti complessi * ragionare su contesto lungo **Esempio concreto** * Prima: scrivevi codice cercando su StackOverflow * Ora: generi base + iteri → 2–5× più veloce in molti task reali --- # 2) “Le promesse sull’AI sono sempre state sbagliate” **Vero → ma irrilevante per valutare oggi** * ✔️ Le previsioni anni ‘60 erano totalmente fuori scala * ❌ Non implica che oggi sia uguale Differenza chiave: * allora: simbolico, senza dati, senza compute * oggi: deep learning + internet-scale data + GPU 👉 È come dire: “Nel 1900 avevano sbagliato le previsioni sull’aviazione → quindi oggi gli aerei non servono” --- # 3) “Non è intelligenza, è solo induzione” **Vero filosoficamente → ma inutile operativamente** * ✔️ LLM ≠ intelligenza umana * ✔️ niente coscienza, niente “comprensione reale” * ❌ ma questo NON è il punto 👉 L’utilità non dipende da: > “è vera intelligenza?” ma da: > “fa meglio o più velocemente il lavoro?” **Esempio** * un compilatore “capisce” il codice? → no * è utile? → sì, immensamente --- # 4) “Stanza cinese → impossibile AGI” **Discussione filosofica, non tecnica** * Argomento di John Searle * Non dimostra inutilità pratica * Non dimostra limiti ingegneristici concreti 👉 Anche se fosse vero: * gli LLM restano strumenti utili (come Excel non è “intelligente”) --- # 5) “Gli LLM allucinano → quindi inutili” **Vero il problema → falsa la conclusione** * ✔️ allucinazioni esistono * ❌ non li rende inutili Dipende dal contesto: ### Caso A: utente competente → enorme boost * coding * debugging * sintesi documenti ### Caso B: utente non competente → rischio alto 👉 Ma questo vale per TUTTI gli strumenti: * forum * documentazione **Differenza reale** * LLM = compressione del tempo di ricerca --- # 6) “Professionisti seri non li usano” **Falso (empiricamente)** Uso reale oggi: * sviluppo software (Copilot, ChatGPT) * supporto legale/documentale * analisi dati * customer support automation 👉 Il pattern reale: * non sostituiscono → **aumentano produttività (se usati bene)** --- # 7) “Studio: +19% tempo → rallentano dev” **Vero → ma incompleto** Quel tipo di studi ha limiti: * task artificiali * sviluppatori esperti (meno margine di guadagno) * contesto limitato Altri studi mostrano: * junior → forte boost * task ripetitivi → boost alto * task nuovi/complessi → variabile 👉 Insight reale: > gli LLM NON sono uniformemente utili > sono **molto utili in alcune zone, mediocri in altre** --- # 8) “0% su problemi hard → non ragionano” **Vero → ma mal interpretato** * ✔️ difficoltà su reasoning puro * ✔️ meglio su implementazione 👉 Ma nel mondo reale: * il 90% del lavoro = non è “IOI hard problem” **Esempio dev reale** * parsing JSON * refactor * boilerplate API * test unitari → qui gli LLM sono forti --- # 9) “Cognitive decline / meno pensiero” **Parzialmente vero** * ✔️ rischio reale: uso passivo * ❌ non inevitabile Dipende da come li usi: ### uso passivo (male) → degrado ### uso attivo (bene) → aumento capacità **Esempio** * chiedere soluzione → male * chiedere spiegazione + iterare → bene --- # 10) “I dati stanno finendo, siamo a saturazione” **In parte vero, ma prematuro** * ✔️ dati di alta qualità limitati * ✔️ synthetic data rischiosa Ma: * miglioramenti continuano (training, architetture, tool use) * uso di **retrieval + tools** cambia il paradigma 👉 Non è più solo “modello statico” --- # 11) “LLM = vicolo cieco” **Opinione, non consenso** Yann LeCun è critico sugli LLM, vero. Ma: * altri leader (OpenAI, DeepMind, Anthropic) puntano forte su LLM + evoluzioni * il settore NON è convergente su questa idea 👉 Traduzione: > è un dibattito aperto, non una conclusione --- # 12) Punto centrale: cosa manca nel discorso Chi scrive quel testo fa un errore fondamentale: 👉 confonde: * **“non è AGI”** con * **“non è utile”** --- # 13) Dove gli LLM sono OGGETTIVAMENTE utili ### 1. Compressione cognitiva * riassumere documenti * sintetizzare informazioni ### 2. Accelerazione sviluppo * boilerplate * debugging assistito * prototipazione ### 3. Interfaccia universale * naturale → zero curva di apprendimento ### 4. Moltiplicatore di competenze * ti porta più velocemente da A → B --- # 14) Modello mentale corretto Gli LLM NON sono: * oracolo * verità * intelligenza generale Gli LLM SONO: * **strumento probabilistico potente** * simile a: * compilatore * motore di ricerca evoluto * assistente tecnico --- # 15) Sintesi brutale ✔️ Hanno limiti reali: * allucinazioni * reasoning non affidabile * dipendenza dal contesto ❌ Ma non sono inutili: * aumentano velocità in moltissimi task * migliorano accesso alla conoscenza * amplificano chi sa usarli --- # 16) Esempio pratico Nel contesto (PHP legacy → Laravel API): LLM utili per: * conversione codice * refactor pattern * generazione boilerplate REST * spiegazioni architetturali rapide NON utili per: * decisioni architetturali finali * validazione critica 👉 Uso corretto: **acceleratore, non sostituto** --- # Conclusione Quel testo: * contiene molte verità tecniche * ma arriva a conclusi estreme non giustificate 👉 realtà: > gli LLM non sono la rivoluzione totale promessa > ma sono già uno strumento estremamente utile se usato con criterio
__________________
"In politica, qualsiasi affermazione è vera solo nell'instante in cui la si dice" - G. Rotondi Challenges: Fallout 4 Survival Mode - Watch Dogs Legion Resistance Mode - Assassin's Creed Origins Nightmare - Cyberpunk 2077 Very Hard The most INSANE Bohemian Rhapsody Flashmob you will ever see!! Ultima modifica di mozzarello : 27-03-2026 alle 08:37. |
|
|
|
|
|
|
#52 |
|
Senior Member
Iscritto dal: Oct 2025
Messaggi: 1164
|
To', anche in formato leggibile:
Il punto di partenza corretto è questo: gli LLM non sono “intelligenza” nel senso umano del termine, non hanno coscienza, non hanno un vero modello del mondo come lo intendiamo noi e possono produrre errori anche con tono molto sicuro. Su questo non c’è molto da discutere. Però da qui a concludere che siano inutili, o addirittura un vicolo cieco già dimostrato, c’è un salto logico che non regge. Le due cose non coincidono. ([arXiv][1]) Anche l’idea “non è cambiato nulla, abbiamo solo più dati” è troppo sbrigativa. È vero che dati e potenza di calcolo hanno contato tantissimo, ma nel frattempo c’è stato anche un cambio architetturale reale: il Transformer del 2017 non è semplicemente “la stessa roba con più GPU”, è stata una svolta pratica perché ha reso molto più efficace il trattamento di sequenze lunghe e la parallelizzazione dell’addestramento. Dire “nulla di utile è cambiato” oggi è difficile sostenerlo seriamente. ([arXiv][2]) Qui secondo me il nodo vero è un altro: molti critici continuano a giudicare gli LLM solo sulla domanda “sono AGI?” oppure “sono davvero intelligenti?”. Ma per capire se uno strumento serve non bisogna chiedersi se pensa come un essere umano; bisogna chiedersi se, in certi compiti, riduce tempo, fatica o costo. Excel non “capisce” la contabilità, il compilatore non “capisce” il software, eppure nessuno li definirebbe inutili. Lo stesso vale per gli LLM: non sono oracoli, ma in tanti contesti funzionano come acceleratori cognitivi. Questa non è filosofia, è uso pratico. Per esempio, nello sviluppo software, il quadro reale è misto, non bianco o nero. Esiste davvero uno studio del 2025 su sviluppatori open source molto esperti che mostra un rallentamento medio del 19% con gli strumenti AI su task reali in progetti maturi. Quindi sì: il caso “LLM = sempre più produttività” è falso. Però esistono anche studi e dati industriali che mostrano il contrario in altri contesti, per esempio task più circoscritti o più vicini al boilerplate: GitHub aveva trovato un completamento fino al 55% più rapido in un proprio studio controllato, e nel 2024 riportava anche un miglioramento della funzionalità del codice nei test in uno studio successivo. Quindi la lettura onesta non è “funzionano” o “non funzionano”, ma: dipende dal tipo di lavoro, dall’esperienza di chi li usa e da quanto il compito sia aperto o verificabile. ([arXiv][3]) Tradotto in esempi realistici: se devi scrivere a mano una banale API CRUD in Laravel, generare DTO, request validation, test iniziali e qualche migration, un LLM spesso ti fa partire molto più in fretta. Se invece stai correggendo un bug sottile dentro una codebase legacy piena di assunzioni non documentate, magari con vincoli di business non ovvi, lì può farti perdere tempo perché propone soluzioni plausibili ma sbagliate, e il costo di verifica mangia il vantaggio iniziale. Lo studio sugli sviluppatori open source va letto proprio così: non dimostra che l’AI “non serve”, dimostra che su lavoro complesso, già noto a esperti, il beneficio non è automatico. ([arXiv][3]) Anche il discorso “i professionisti seri non li usano” oggi non fotografa la realtà. Il dato più onesto è che li usano in molti, ma si fidano poco del risultato grezzo. Nel Survey 2024 di Stack Overflow, il 76% dei rispondenti diceva di usare o pianificare di usare strumenti AI nel processo di sviluppo, mentre la fiducia nella loro accuratezza restava molto più bassa. Questo è esattamente il punto: non vengono usati come fonte finale di verità, ma come acceleratori da supervisionare. ([Stack Overflow Surveys][4]) Sul lato “ragionamento”, anche lì le critiche hanno una base reale ma vengono spesso stirate troppo. Benchmark come LiveCodeBench Pro mostrano che i modelli frontier continuano ad avere limiti seri nel competitive programming difficile: vanno bene su implementazione e peggio su ragionamento algoritmico fine, con errori sicuri e giustificazioni convincenti ma false. Quindi no, non sono “menti superiori” e non hanno affatto chiuso il discorso sul reasoning. Però la maggior parte del lavoro reale non è una finale IOI. Nella pratica quotidiana, gran parte dei compiti è fatta di traduzione tra formati, refactoring, generazione di test, spiegazione di codice, documentazione, query SQL, regex, script di automazione, sintesi di requisiti, revisione iniziale di testo tecnico. In questa fascia, il fatto che non risolvano i problemi hard da olimpiade conta molto meno del fatto che tolgano attrito su lavoro comune. ([arXiv][1]) Anche il tema delle allucinazioni va inquadrato bene. Dire che “se non sai verificare, allora stai consultando l’oracolo di Delfi” è una provocazione efficace, ma non è tutta la storia. È vero che chi non sa nulla dell’argomento corre più rischi. Ma vale anche con forum, blog, tutorial vecchi, post su Reddit e persino documentazione letta male. Il problema non è solo “LLM sì o no”: il problema è l’uso non supervisionato di una fonte probabilistica. Un utente competente, invece, può usarli molto bene come primo draft generator. Esempio concreto: se sai già come funziona OAuth o come strutturare un controller REST, puoi far generare una bozza e poi correggerla rapidamente. Se non lo sai, rischi di importarti bug concettuali senza accorgertene. Quindi il discrimine vero è competenza + verifica, non l’esistenza dello strumento. Sul fronte cognitivo, poi, ci sono segnali che meritano attenzione ma non vanno assolutizzati. I lavori del 2025 che citi sul pensiero critico e sul cosiddetto “cognitive debt” nell’uso di ChatGPT per scrivere testi sono interessanti e vanno presi sul serio, ma descrivono un rischio d’uso passivo, non una condanna universale dello strumento. Se lo usi per farti scrivere tutto e poi copi, probabilmente stai allenando meno il ragionamento. Se lo usi per confrontare strutture, farti criticare un testo, generare controargomenti o evidenziare punti deboli, l’effetto può essere l’opposto. È simile alla calcolatrice: se la usi prima di aver capito la matematica, ti atrofizza; se la usi dopo, ti libera tempo mentale per problemi più alti. ([arXiv][5]) Sul fatto che gli LLM possano essere un “vicolo cieco” per arrivare a una AGI forte, questa è una tesi legittima, non una verità chiusa. Yann LeCun ha effettivamente espresso posizioni molto critiche e ha parlato degli LLM come strada insufficiente o addirittura dead end verso l’intelligenza di livello umano. Ma il fatto che uno dei massimi ricercatori lo dica non trasforma automaticamente quella posizione in consenso del settore. Significa solo che il dibattito è apertissimo. Peraltro, anche se avesse ragione sul lungo periodo, questo non toglierebbe utilità pratica agli LLM nel presente. Un martello non diventa inutile perché non può diventare un cacciavite. ([LinkedIn][6]) Stesso discorso per la frase su Satya Nadella, spesso riportata come “AI sta generando sostanzialmente zero valore”. Quella è una semplificazione polemica di un discorso più sfumato: Nadella ha insistito molto sul fatto che il valore vero dell’AI non si misuri con slogan su AGI ma con impatto economico reale. E comunque Microsoft, nel 2025 e poi ancora nel 2026, ha continuato a riportare crescita forte trainata anche dal cloud e dall’AI. Quindi usare quella frase come prova definitiva del “fallimento” è più retorica che analisi. ([dwarkesh.com][7]) In sostanza, io la metterei così: molte critiche tecniche agli LLM sono corrette. Non ragionano come un umano, allucinano, possono rallentare nei task complessi, non sono affidabili come fonte finale e l’uso passivo può peggiorare il pensiero critico. Tutto vero. Quello che non condivido è il passaggio successivo, cioè: “allora non servono”. No. Servono eccome, purché vengano trattati per quello che sono: strumenti probabilistici ad alta utilità locale, non giudici della verità. La formula più onesta, secondo me, è questa: gli LLM non sono buoni sostituti del pensiero; sono buoni moltiplicatori del pensiero, ma solo se a guidarli c’è qualcuno che sa dove vuole andare. Un utente forte li usa per comprimere tempi di ricerca, produrre prime bozze, esplorare alternative, automatizzare parti noiose e trasformare problemi vaghi in materiale lavorabile. Un utente debole rischia invece di delegare il giudizio, e lì sì che inizia il problema. [1]: https://arxiv.org/abs/2506.11928?utm_source=chatgpt.com "LiveCodeBench Pro: How Do Olympiad Medalists Judge LLMs in Competitive Programming?" [2]: https://arxiv.org/abs/1706.03762?utm_source=chatgpt.com "Attention Is All You Need" [3]: https://arxiv.org/abs/2507.09089?utm_source=chatgpt.com "Measuring the Impact of Early-2025 AI on Experienced Open-Source Developer Productivity" [4]: https://survey.stackoverflow.co/2024...ce=chatgpt.com "AI | 2024 Stack Overflow Developer Survey" [5]: https://arxiv.org/abs/2506.08872?utm_source=chatgpt.com "Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task" [6]: https://www.linkedin.com/posts/yann-...ce=chatgpt.com "Yann LeCun's Post" [7]: https://www.dwarkesh.com/p/satya-nad...ce=chatgpt.com "Satya Nadella — Microsoft's AGI plan & quantum ..."
__________________
"In politica, qualsiasi affermazione è vera solo nell'instante in cui la si dice" - G. Rotondi Challenges: Fallout 4 Survival Mode - Watch Dogs Legion Resistance Mode - Assassin's Creed Origins Nightmare - Cyberpunk 2077 Very Hard The most INSANE Bohemian Rhapsody Flashmob you will ever see!! |
|
|
|
|
|
#53 |
|
Senior Member
Iscritto dal: Oct 2025
Messaggi: 1164
|
E alla fottuta fine, anche ChatGPT mi dà ragione: gli LLM sono strumenti , ripeto strumenti, estremamente utili quando si sa come usarli.
Come direbbe ChatGPT: Gli LLM non sono intelligenza e non sono affidabili da soli, ma usati con competenza non sostituiscono il pensiero: lo accelerano.
__________________
"In politica, qualsiasi affermazione è vera solo nell'instante in cui la si dice" - G. Rotondi Challenges: Fallout 4 Survival Mode - Watch Dogs Legion Resistance Mode - Assassin's Creed Origins Nightmare - Cyberpunk 2077 Very Hard The most INSANE Bohemian Rhapsody Flashmob you will ever see!! Ultima modifica di mozzarello : 27-03-2026 alle 08:59. |
|
|
|
|
|
#54 | |
|
Senior Member
Iscritto dal: Sep 2003
Città: Torino
Messaggi: 21804
|
Quote:
|
|
|
|
|
|
|
#55 | |
|
Senior Member
Iscritto dal: Oct 2025
Messaggi: 1164
|
Quote:
Spoiler: della gente Un bel cazzi loro non ce lo mettiamo?
__________________
"In politica, qualsiasi affermazione è vera solo nell'instante in cui la si dice" - G. Rotondi Challenges: Fallout 4 Survival Mode - Watch Dogs Legion Resistance Mode - Assassin's Creed Origins Nightmare - Cyberpunk 2077 Very Hard The most INSANE Bohemian Rhapsody Flashmob you will ever see!! |
|
|
|
|
|
|
#56 | |
|
Senior Member
Iscritto dal: May 2020
Messaggi: 1438
|
Quote:
Questo conferma quanto detto tinkerbell effect: le tecnologie speculative esistono solo se ci crediamo abbastanza e battiamo le mani abbastanza forte. Se smettiamo di crederci e smettiamo di applaudire, allora possono cominciare a svanire, diventando sempre più immateriali fino a sparire.
__________________
Nel tempo dell'inganno universale, dire la verità è un atto rivoluzionario. George Orwell Il vero valore di una persona non si misura dai valori in cui sostiene di credere, ma da che cosa è disposto a fare per proteggerli. Se non pratichi i valori in cui credi, probabilmente non ci credi fino in fondo. Edward Snowden Coloro che rinuncerebbero alla libertà essenziale, per acquistare un po' di sicurezza temporanea, non meritano né libertà né sicurezza. Benjamin Franklin |
|
|
|
|
|
|
#57 | |
|
Senior Member
Iscritto dal: May 2020
Messaggi: 1438
|
Quote:
__________________
Nel tempo dell'inganno universale, dire la verità è un atto rivoluzionario. George Orwell Il vero valore di una persona non si misura dai valori in cui sostiene di credere, ma da che cosa è disposto a fare per proteggerli. Se non pratichi i valori in cui credi, probabilmente non ci credi fino in fondo. Edward Snowden Coloro che rinuncerebbero alla libertà essenziale, per acquistare un po' di sicurezza temporanea, non meritano né libertà né sicurezza. Benjamin Franklin Ultima modifica di pachainti : 27-03-2026 alle 18:38. |
|
|
|
|
|
|
#58 | |
|
Senior Member
Iscritto dal: May 2020
Messaggi: 1438
|
Quote:
__________________
Nel tempo dell'inganno universale, dire la verità è un atto rivoluzionario. George Orwell Il vero valore di una persona non si misura dai valori in cui sostiene di credere, ma da che cosa è disposto a fare per proteggerli. Se non pratichi i valori in cui credi, probabilmente non ci credi fino in fondo. Edward Snowden Coloro che rinuncerebbero alla libertà essenziale, per acquistare un po' di sicurezza temporanea, non meritano né libertà né sicurezza. Benjamin Franklin |
|
|
|
|
|
|
#59 |
|
Senior Member
Iscritto dal: May 2020
Messaggi: 1438
|
Esattamente. Spacciare una tecnologia per qualcosa che non è dando l'illusione che lo sia. Questo è il principale motivo per il quale occorre fare chiarezza ed evitare il più possibile tali tecnologie che non funzionano e mai funzioneranno viste le loro caratteristiche intrinseche.
__________________
Nel tempo dell'inganno universale, dire la verità è un atto rivoluzionario. George Orwell Il vero valore di una persona non si misura dai valori in cui sostiene di credere, ma da che cosa è disposto a fare per proteggerli. Se non pratichi i valori in cui credi, probabilmente non ci credi fino in fondo. Edward Snowden Coloro che rinuncerebbero alla libertà essenziale, per acquistare un po' di sicurezza temporanea, non meritano né libertà né sicurezza. Benjamin Franklin |
|
|
|
|
|
#60 |
|
Senior Member
Iscritto dal: Jul 1999
Città: Palermo
Messaggi: 7361
|
Per me:
1) siamo ancora alle prime versioni vere e funzionanti... 2) mi sembra di leggere i discorsi che si facevano con internet e tutte le altre tecnologie di rottura.
__________________
Intel I9 13900K, Corsair iCUE H150i RGB ELITE, ASUS Prime Z790-A WIFI, 64GB DDR5 @6400MHz e ASUS TUF Gaming RTX 3080 OC |
|
|
|
|
| Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 04:12.




















