Torna indietro   Hardware Upgrade Forum > Hardware Upgrade > News

Chi è Jen-Hsun 'Jensen' Huang, una vita a fare Nvidia
Chi è Jen-Hsun 'Jensen' Huang, una vita a fare Nvidia
Scopriamo chi è Jen-Hsun 'Jensen' Huang, il CEO di Nvidia, in un racconto non solo della sua vita ma anche legato ai quasi 30 anni di attività ai vertici di un'azienda che ha costruito il mercato dei videogiochi come lo conosciamo per concretizzare una visione che nei primi anni '90 pochi riuscivano a capire.
Google Fuchsia usa un microkernel. Qual è la differenza e perché è rilevante
Google Fuchsia usa un microkernel. Qual è la differenza e perché è rilevante
Google Fuchsia è un nuovo sistema operativo in sviluppo con una particolarità: utilizza Zircon, un microkernel. L'approccio progettuale è piuttosto differente rispetto ai sistemi operativi più diffusi, che usano perlopiù modelli ibridi. Vediamo come un approccio a microkernel potrebbe garantire a Google maggiore controllo sulle sue piattaforme come Android e Chrome OS
Lenovo ThinkVision T34w, ultrawide 34 pollici per la produttività
Lenovo ThinkVision T34w, ultrawide 34 pollici per la produttività
I monitor con formato ultrawide non sono solamente un capriccio per videogiocatori: in ambito professionale e lavorativo permettono di incrementare produttività ed efficienza. Lenovo ThinkVision T34w offre un formato 21:9 e un pannello curvo R1500
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 13-05-2021, 11:51   #21
al135
Senior Member
 
L'Avatar di al135
 
Iscritto dal: Feb 2004
Città: perugia
Messaggi: 6758
Quote:
Originariamente inviato da Techie Guarda i messaggi
Una moda forse no, ma una tech preview al momento direi di sì - il ray-tracing dico, non questo.
Questo... per i risultati che ottiene e l'assenza di artefatti macroscopici devo dire che mi stupisce abbastanza (caveat: ho guardato il video sul cell).
L'AI (o sistemi esperti o quello che vi pare) ha avuto uno sviluppo realmente folle in un tempo di un paio d'anni solamente... siamo già a gradi di maturità impressionanti per quanto mi riguarda. Magari non saremo ancora alla perfezione, ma il rateo di progresso fa ben sperare, e per applicazioni in tantissimi campi diversi.
si, ma nell'articolo originale menziona chiaramente la necessità di avere a disposizione la tecnologia raytracing per poter ottenere questi risultati. poi che al momento sia ancora "non completa" è solo per un limite di calcolo delle macchine
__________________
EVGA 3090 FTW3 ULTRA@2070mhz:0,97v, AMD Ryzen 5800X, 32gb Corsair Dominator DDR4@4000 cas18, SSD NVME Corsair Pcie 4.0 2TB, Monitor 4k OLED LG, Headset VR Valve Index
al135 è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 12:36   #22
Techie
Senior Member
 
Iscritto dal: Jun 2014
Messaggi: 1175
Quote:
Originariamente inviato da al135 Guarda i messaggi
si, ma nell'articolo originale menziona chiaramente la necessità di avere a disposizione la tecnologia raytracing per poter ottenere questi risultati. poi che al momento sia ancora "non completa" è solo per un limite di calcolo delle macchine
Eh, e io non ho mai detto che non fosse una cosa seria... a differenza del 3D sui televisori, per dire... anche secondo me sarà il futuro, come i primi giochi 3D negli anni '80 o i poligoni textured negli anni '90 (che all'inizio facevano pietà).
Techie è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 12:46   #23
386DX40
Senior Member
 
Iscritto dal: Aug 2019
Messaggi: 2119
I primi giochi in 3D non facevano imho pietà e tutto sommato se si guarda a quelli textured senza accelerazione in hardware sono durati poco e comunque hanno segnato per sempre il mondo videoludico. L'esempio su tutti e' Quake. Nella versione originale quella software rendered era un salto tecnologico imparagonabile. I giochi in 3D se si intende poligonali di fine anni 80 / anni 90 erano comunque impressionanti per l' epoca sebbene senza texture ma il vero salto da tutti riconosciuto fu quello textured di Quake tutt'altro che ininfluente. Se invece si prende come riferimento la prima PlayStation beh, aveva i suoi limiti ma per quel che poteva spiazzò il mercato comunque. I PC cominciavano ad avere chip con features anche migliori sebbene troppo lenti e con pochi titoli per poter davvero sfondare.
Poi arrivato Quake e successivamente GLQuake tanti saluti alle console.

Ultima modifica di 386DX40 : 13-05-2021 alle 12:48.
386DX40 è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 13:01   #24
Techie
Senior Member
 
Iscritto dal: Jun 2014
Messaggi: 1175
Quote:
Originariamente inviato da 386DX40 Guarda i messaggi
I primi giochi in 3D non facevano imho pietà e tutto sommato se si guarda a quelli textured senza accelerazione in hardware sono durati poco e comunque hanno segnato per sempre il mondo videoludico. L'esempio su tutti e' Quake. Nella versione originale quella software rendered era un salto tecnologico imparagonabile. I giochi in 3D se si intende poligonali di fine anni 80 / anni 90 erano comunque impressionanti per l' epoca sebbene senza texture ma il vero salto da tutti riconosciuto fu quello textured di Quake tutt'altro che ininfluente. Se invece si prende come riferimento la prima PlayStation beh, aveva i suoi limiti ma per quel che poteva spiazzò il mercato comunque. I PC cominciavano ad avere chip con features anche migliori sebbene troppo lenti e con pochi titoli per poter davvero sfondare.
Poi arrivato Quake e successivamente GLQuake tanti saluti alle console.
Stavo pensando a Battlezone (1980) e Mechwarrior 2 - Mercenaries (1996)
Techie è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 13:03   #25
386DX40
Senior Member
 
Iscritto dal: Aug 2019
Messaggi: 2119
Quote:
Originariamente inviato da Techie Guarda i messaggi
Stavo pensando a Battlezone (1980) e Mechwarrior 2 - Mercenaries (1996)
Pensavo pero' a titoli come Stunts (1990) o LHX (1990) o Test Drive 3 (1990). Ma sui primi textured certamente non potevano permettersi grandi cose senza l'aiuto di un hardware dedicato ma esempi appunto come Quake e Tomb Raider e come dimenticarsi Unreal o Half Life sono piuttosto validi anche senza accelerazione hardware. Certo non erano proprio i primi ok ma piu' o meno le tecnologie in gioco erano sempre le stesse. Ovviamente il vero salto lo permise la FPU del Pentium e l'arrivo di schede video PCI che anche senza feature dedicate al 3D aiutavano comunque in minimo nell'insieme.

Ultima modifica di 386DX40 : 13-05-2021 alle 13:08.
386DX40 è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 13:25   #26
radeon_snorky
Senior Member
 
Iscritto dal: Mar 2003
Messaggi: 1574
ok gta5...
provate a farlo con stunt car racer o un qualunque vg anni 90
radeon_snorky è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 14:28   #27
Techie
Senior Member
 
Iscritto dal: Jun 2014
Messaggi: 1175
Quote:
Originariamente inviato da 386DX40 Guarda i messaggi
Pensavo pero' a titoli come Stunts (1990) o LHX (1990) o Test Drive 3 (1990). Ma sui primi textured certamente non potevano permettersi grandi cose senza l'aiuto di un hardware dedicato ma esempi appunto come Quake e Tomb Raider e come dimenticarsi Unreal o Half Life sono piuttosto validi anche senza accelerazione hardware. Certo non erano proprio i primi ok ma piu' o meno le tecnologie in gioco erano sempre le stesse. Ovviamente il vero salto lo permise la FPU del Pentium e l'arrivo di schede video PCI che anche senza feature dedicate al 3D aiutavano comunque in minimo nell'insieme.
Certo... lo sviluppo poi è stato esponenziale... siamo appena alla prima generazione di schede che suppprtano il ray-tracing... in un orizzonte temporale di 10 anni - intoppi da mining o strozzamento artificiale della produzione a parte - credo che ne vedremo delle belle.
Techie è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 15:55   #28
a.peter
Member
 
Iscritto dal: Sep 2020
Messaggi: 39
Ray-Tacing è solo il nome figo da marketing adatto al mondo del gaming.
Nei software di modellazione 3D, o meglio (e soprattutto) nei software di rendering (talvolta sono il medesimo software) si chiama Illuminazione Globale.
Esistono diversi tipi di GI, più o meno random-precisi e di conseguenza più o meno pesanti.
Storicamente il fatto è che fino a tempi recenti fa, il rendering appunto, avveniva solo per CPU; negli ultimi anni invece sta facendo passi da gigante il rendering tramite GPU che spesso è più rapido, ma in realtà dipende, ma su sistemi più umani di solito permette una live view molto più rapida.
La cosa è che con la tecnica GI la CPU si fa il conto di moltissimi raggi-rimbalzi(che poi vanno a dare un risultato più realstico, ricordiamoci stiamo parlando di film, render architettonici e di prodotti, nonchè automotive), cosa non adatta per i videogiochi.
Ed è qui che arriva RT, hardware appositamente studiato per fare "solo" l'emissione di raggi e i loro rimbalzi, un numero comunque "irrisorio" di raggi, che però implementati a tecniche già esistenti nei videogiochi da una mano.
Di conseguenza per coloro che usano software di rendering 3d, tramite GPU (come potrebbe essere Octane o Redshift) avere i tensor core gli da una grossa mano nella live view, ma sostanzialmente sempre di Illuminazione globale si tratta, solo che si sfrutta l'aiuti di questi nuovi hw e sw.
a.peter è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 16:08   #29
Techie
Senior Member
 
Iscritto dal: Jun 2014
Messaggi: 1175
Quote:
Originariamente inviato da a.peter Guarda i messaggi
Ray-Tacing è solo il nome figo da marketing adatto al mondo del gaming.
Nei software di modellazione 3D, o meglio (e soprattutto) nei software di rendering (talvolta sono il medesimo software) si chiama Illuminazione Globale.
Esistono diversi tipi di GI, più o meno random-precisi e di conseguenza più o meno pesanti.
Storicamente il fatto è che fino a tempi recenti fa, il rendering appunto, avveniva solo per CPU; negli ultimi anni invece sta facendo passi da gigante il rendering tramite GPU che spesso è più rapido, ma in realtà dipende, ma su sistemi più umani di solito permette una live view molto più rapida.
La cosa è che con la tecnica GI la CPU si fa il conto di moltissimi raggi-rimbalzi(che poi vanno a dare un risultato più realstico, ricordiamoci stiamo parlando di film, render architettonici e di prodotti, nonchè automotive), cosa non adatta per i videogiochi.
Ed è qui che arriva RT, hardware appositamente studiato per fare "solo" l'emissione di raggi e i loro rimbalzi, un numero comunque "irrisorio" di raggi, che però implementati a tecniche già esistenti nei videogiochi da una mano.
Di conseguenza per coloro che usano software di rendering 3d, tramite GPU (come potrebbe essere Octane o Redshift) avere i tensor core gli da una grossa mano nella live view, ma sostanzialmente sempre di Illuminazione globale si tratta, solo che si sfrutta l'aiuti di questi nuovi hw e sw.
...io l'ho sempre sentito chiamare ray-tracing, anche sugli articoli sui CAD nelle riviste degli anni '90
Techie è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 16:13   #30
386DX40
Senior Member
 
Iscritto dal: Aug 2019
Messaggi: 2119
Quote:
Originariamente inviato da a.peter Guarda i messaggi
Ray-Tacing è solo il nome figo da marketing adatto al mondo del gaming.
Nei software di modellazione 3D, o meglio (e soprattutto) nei software di rendering (talvolta sono il medesimo software) si chiama Illuminazione Globale.
Esistono diversi tipi di GI, più o meno random-precisi e di conseguenza più o meno pesanti.
Storicamente il fatto è che fino a tempi recenti fa, il rendering appunto, avveniva solo per CPU; negli ultimi anni invece sta facendo passi da gigante il rendering tramite GPU che spesso è più rapido, ma in realtà dipende, ma su sistemi più umani di solito permette una live view molto più rapida.
La cosa è che con la tecnica GI la CPU si fa il conto di moltissimi raggi-rimbalzi(che poi vanno a dare un risultato più realstico, ricordiamoci stiamo parlando di film, render architettonici e di prodotti, nonchè automotive), cosa non adatta per i videogiochi.
Ed è qui che arriva RT, hardware appositamente studiato per fare "solo" l'emissione di raggi e i loro rimbalzi, un numero comunque "irrisorio" di raggi, che però implementati a tecniche già esistenti nei videogiochi da una mano.
Di conseguenza per coloro che usano software di rendering 3d, tramite GPU (come potrebbe essere Octane o Redshift) avere i tensor core gli da una grossa mano nella live view, ma sostanzialmente sempre di Illuminazione globale si tratta, solo che si sfrutta l'aiuti di questi nuovi hw e sw.
Infatti mi pareva di ricordare cosi' anche a me. Poi immagino che con le attuali architetture si possa fare anche altro assieme alla illuminazione globale, ma quella resta la tecnica di illuminazione che spazzerebbe via (se calcolata con la stessa complessità dei sw appunto suddetti, se in tempo reale) praticamente vent'anni di videogiochi che hanno cercato in ogni modo di simulare (anche bene) i risultati di un vero calcolo di illuminazione globale.
Se ne parlava gia' appunto quasi un ventennio fa. E i tempi di rendering su un Pentium 4 li ricordo tutti altro che tempo reale, potevi andare a mangiare e tornare che ancora stava calcolando il frame a 640x480 di una scena geometrica semplice.
386DX40 è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 16:20   #31
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 2567
Quote:
Originariamente inviato da a.peter Guarda i messaggi
Ray-Tacing è solo il nome figo da marketing adatto al mondo del gaming.
Nei software di modellazione 3D, o meglio (e soprattutto) nei software di rendering (talvolta sono il medesimo software) si chiama Illuminazione Globale.
Esistono diversi tipi di GI, più o meno random-precisi e di conseguenza più o meno pesanti.
Storicamente il fatto è che fino a tempi recenti fa, il rendering appunto, avveniva solo per CPU; negli ultimi anni invece sta facendo passi da gigante il rendering tramite GPU che spesso è più rapido, ma in realtà dipende, ma su sistemi più umani di solito permette una live view molto più rapida.
La cosa è che con la tecnica GI la CPU si fa il conto di moltissimi raggi-rimbalzi(che poi vanno a dare un risultato più realstico, ricordiamoci stiamo parlando di film, render architettonici e di prodotti, nonchè automotive), cosa non adatta per i videogiochi.
Ed è qui che arriva RT, hardware appositamente studiato per fare "solo" l'emissione di raggi e i loro rimbalzi, un numero comunque "irrisorio" di raggi, che però implementati a tecniche già esistenti nei videogiochi da una mano.
Di conseguenza per coloro che usano software di rendering 3d, tramite GPU (come potrebbe essere Octane o Redshift) avere i tensor core gli da una grossa mano nella live view, ma sostanzialmente sempre di Illuminazione globale si tratta, solo che si sfrutta l'aiuti di questi nuovi hw e sw.
No, assolutamente.
GI è una parte delle capacità del ray tracing, non è la sua caratteristica di base.
In un programma per modellare e renderizzare scende architettoniche magari basta per aumentare il realismo dell'immagine finale, ma ray tracing è molta altra roba.
Chiameresti Global Illumination l'algoritmo che ti permette di calcolare la rifrazione di una corpo trasparente?
Chiameresti Global Illumination l'algoritmo che permette di calcolare hightlights, riflessioni e ombre, caustiche e iridiscenze? Interferenze e anche DoF?

Global Illumination è la dicitura "povera" di qualcosa che è molto di più. Serve a voi architetti per non farvi andare il cervello in pappa con paroloni che vi spaventerebbero.
Da che è nato, si chiama Ray-tracing e ci sono programmi che lo calcolano prima di avere i programmi di modellazione e prima che il PC avesse anche più di 16 colori.
Infatti le applicazioni di modellazione sono nate su Amiga con Read4D e Imagine, poi LightWave e Cinema 4D. Ai tempi il PC non aveva ancora il mouse. E là si chiamava ray tracing.

Ultima modifica di CrapaDiLegno : 13-05-2021 alle 16:29.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 17:02   #32
sbaffo
Senior Member
 
L'Avatar di sbaffo
 
Iscritto dal: Feb 2005
Città: MI
Messaggi: 3006
Quote:
Originariamente inviato da Pino90 Guarda i messaggi
no, è molto di più di un "color grader" avanzato. Vengono modificate focali, geometrie, riflessi, emissioni di luce etc.

Guarda le immagini qui: https://intel-isl.github.io/PhotorealismEnhancement/

Ad esempio sull'ultima si nota che l'erba cambia proprio geometria, la texture dell'asfalto è molto più realistica nella versione "IA" anche in fatto di rappresentazione delle buche etc.
Mah, a me sembra che l'asfalto sia semplicemente "piallato" cioè uniformato e ingrigito perdendo totalmente la sua "granularità" originale, come se lo avessero riasfaltato. (certo, hanno preso come modello immagini di città tedesche, se erano italiane altro che riasfalatato... )
Per quanto riguarda i reflessi sulla carrozzeria delle auto mi sembrano decisamente esagerati soprattutto nella quarta immagine, quella con le due auto sulla destra.

Diciamo che l'idea è buona, una AI object oriented che prenda gli oggetti dal processo di rendering per migliorarli e poi miscelarli col render, ma ha ancora molta strada da fare, giustamente essendo la prima prova.
Diciamo che hanno applicato l'idea del tile-rendering all'AI, modificandola in object AI-rendering.
__________________
DUKE E' VIVO: eduke32: Duke Nukem 3D su WinXP/7/8/10 - High Resolution Pack (HRP) - roch series - DNF 2013 - Source_ports . -//- Wolfenstein is back: Blade of agony per W10 64bit
iPad Air2 - intel Q9550

Ultima modifica di sbaffo : 13-05-2021 alle 17:07.
sbaffo è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 17:14   #33
Fos
Senior Member
 
L'Avatar di Fos
 
Iscritto dal: Aug 2004
Messaggi: 1472
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Dove è quello che sosteneva "per l'inferenza non serve HW dedicato, basta che le ALU sappiano elaborare INT4, quindi i tensor sono superflui?
Chissà, però in un topic ho visto uno che diceva che "AMD non ha investito un solo transistor nel calcolo per l'AI visto che manca qualsiasi istruzione ottimizzata sia nelle sue CPU che nelle GPU"...
Per poi far finta di niente quando gli è stato sottolineato qualcosa di diverso.

Eccolo:
https://www.hwupgrade.it/forum/showthread.php?t=2940113

Non è che ti piace pensare che se i tensor non sono inutili lo sono tutti gli approcci diversi? Istruzioni ottimizzate non significa necessariamente co-processori, eh?

Ah, perché non mi posti il topic del tipo che citi, magari mi viene voglia di partecipare.
__________________
Xaser-5 | MSI-Z170A | i5-6600K@4.4GHz| RX-580 | 16GB-2740Mhz | X-Fi Fatal1ty | SSD NVMe + 4TB | LCD-27 | GigaWorks-S750
Fos è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 18:16   #34
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 2567
Quote:
Originariamente inviato da Fos Guarda i messaggi
Chissà, però in un topic ho visto uno che diceva che "AMD non ha investito un solo transistor nel calcolo per l'AI visto che manca qualsiasi istruzione ottimizzata sia nelle sue CPU che nelle GPU"...
Per poi far finta di niente quando gli è stato sottolineato qualcosa di diverso.

Eccolo:
https://www.hwupgrade.it/forum/showthread.php?t=2940113

Non è che ti piace pensare che se i tensor non sono inutili lo sono tutti gli approcci diversi? Istruzioni ottimizzate non significa necessariamente co-processori, eh?

Ah, perché non mi posti il topic del tipo che citi, magari mi viene voglia di partecipare.
Si ho esagerato nel concetto, ti concedo che AMD ha investito questi 100 transistor per ALU per aggiungere 4 nuove istruzioni di calcolo con dimensioni inferiori a 16bit, ma non è avere qualcosa che sia usabile per l'inferenza delle IA.
Non è che "una approccio diverso è inutile", è semplicemente insufficiente per fare quello che si chiede.
Si potrà fare inferenza con RDNA2, sicuramente meglio che con RDN1 (che è concettualmente pari a roba del 2016), ma siamo come con l'RT: indietro e tanto. E finora non è stato dimostrato proprio nulla sotto questo punto di vista, esattamente come AMD non mostrava nulla delle "iperboliche" capacità di raytracing prima di RNA2 (e ora lo supporta giusto giusto e non ne fa certo un vanto, ma per i fanboy AMD avrebbe portato il raytracing anche alle schede più scrause senza perdita di performance perché bastavano le ALU e l'HW dedicato di NVidia era inutile).

Vedi qui che tempi di calcolo sono necessari con una 3090 e tutta la sua potenza di fuoco. Usare DirectML (le istruzioni di RDNA sono per supportare quella specifica funzionalità delle DX12) sulle ALU significa uccidere il resto dei calcoli grafici, questo lo sai vero?
Infatti a quanto pare AMD ha abbandonato l'idea di usare un sistema di inferenza come quello di Nvidia (o come sembra come quello che proporrà Intel) perché "non ja fa". O l'AI p la grafica. Usare l'AI per ridurre i tempi di calcolo grafici e poi rubare tempi di calcolo grafici con l'AI è un vero controsenso.

D'altronde il numero di transistor in RDNA2 è già davvero elevato solo per fare raster, aggiungere altra roba avrebbe portato la piastrella a diventare troppo grande (e troppo costosa per le console, dove una ha pure scelto di non usare tutto l'arsenale disponibile già senza metterci roba in più).

Il risultato netto è che AMD nell'AI è indietro almeno 2 generazioni rispetto ad Nvidia. Vedremo rispetto a Intel cosa riuscirà a fare, ma credo poco.
Come con il ray tracing (e parecchia altra roba anche in passato) aspettiamo la generazione successiva che sarà quella giusta. Se gli altri non fanno nulla nel frattempo...
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 18:52   #35
Fos
Senior Member
 
L'Avatar di Fos
 
Iscritto dal: Aug 2004
Messaggi: 1472
Prima non le aveva, ora è come se non le avesse. Beh, un passo alla volta...

Quanta potenza serva e per fare cosa ancora si deve vedere bene.
Anche col RT si diceva che l'integrazione avrebbe saturato il resto; Ora pare chiaro che in confronto a non avere i RA c'è una bella differenza, no?
O dobbiamo fare la prova con un'improbabile compatilbilità per bellezza di RDNA-1?

Quindi, come sopra, è difficile capire quanto e come quei calcoli saturino il resto, mentre e facile pensare che AMD insieme a MS (che potrebbe aver spinto per usufruirne su XSX) non abbiano pensato alla possibilità per sprecare spazio...

Per altro, anche solo per ipotizzare un'inutilità per congestione, bisognerebbe conoscere profondamente l'implementazione, a quale stadio avviene, quanto e come toglie ecc... Altrimenti parliamo tanto per tifoseria speranzosa nelle inutilità altrui. Con i commenti esagerati è quella l'impressione che dai, eh, e con i 100 transistor stai seguendo la stessa strada.

Col RT non sarebbe proprio la stessa cosa, tanto per evitare repliche sul pelo fuori dal piatto. Ad esempio, non è detto che se in RDNA-2 ci fossero stati 2 RA per CU il fratello sarebbe stato uno sfaticato...

Dopo, se la vogliamo mettere sulle opinioni blande, si potrebbe anche dire che l'implementazione AMD alla integro finché posso spesso viene considerata più elegante, anche per il rapporto spesa/resa, ma appunto sarebbe un modo di vederla senza saperla più di tanto.

Per quanto ne sappiamo, domani Nvidia potrebbe virare verso l'approccio AMD e/o viceversa, quindi meglio non forzare troppo, dopo tocca tornare troppo indietro e seguendo una strana diversa.
Non so se mi spiego.
__________________
Xaser-5 | MSI-Z170A | i5-6600K@4.4GHz| RX-580 | 16GB-2740Mhz | X-Fi Fatal1ty | SSD NVMe + 4TB | LCD-27 | GigaWorks-S750

Ultima modifica di Fos : 13-05-2021 alle 18:56.
Fos è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 19:46   #36
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 2567
Mi da che vuoi fare l'avvocato delle cause perse di forza? O solo il fanboy offeso?

Quote:
Originariamente inviato da Fos Guarda i messaggi
Prima non le aveva, ora è come se non le avesse. Beh, un passo alla volta...
Forse ti è sfuggito, così di passaggio, che Nvidia quelle stesse istruzioni le ha messe dico, in Pascal, nel 2016. E guarda caso nessuna applicazione che sfrutta l'AI è mai stata sviluppata per Pascal.

Forse ti è sfuggito, che nonostante quelle istruzioni ad hoc Turing era 6 volte più veloce. Ora parliamo della generazione successiva di quella tecnologia che è quasi 2 volte ancora più veloce.

Ma tu parli di roba che non capisci solo per il gusto di difendere una multinazionale che è 2 generazioni complete dietro la concorrenza.
Praticamente RDNA2 ha le stesse capacità AI di Pascal. Solo 5 anni dopo.

Quote:
Originariamente inviato da Fos Guarda i messaggi
Quanta potenza serva e per fare cosa ancora si deve vedere bene.
Anche col RT si diceva che l'integrazione avrebbe saturato il resto; Ora pare chiaro che in confronto a non avere i RA c'è una bella differenza, no?
O dobbiamo fare la prova con un'improbabile compatilbilità per bellezza di RDNA-1?
Eh?
Chi ha detto che l'integrazione avrebbe saturato cosa?
Fatto sta che non serve fare alcuna prova con RDNA-1 (che per vergogna totale AMD non rende compatibile con DXR). Basta vedere cosa fa Pascal con DXR rispetto a Turing e capire che i core RT a qualcosa servono perché le prestazioni sono decisamente migliori che senza.
Potenza dell'HW dedicato vs roba buttala là tanto per dire "anche noi abbiamo il supporto".

Quote:
Originariamente inviato da Fos Guarda i messaggi
Quindi, come sopra, è difficile capire quanto e come quei calcoli saturino il resto, mentre e facile pensare che AMD insieme a MS (che potrebbe aver spinto per usufruirne su XSX) non abbiano pensato alla possibilità per sprecare spazio...

Per altro, anche solo per ipotizzare un'inutilità per congestione, bisognerebbe conoscere profondamente l'implementazione, a quale stadio avviene, quanto e come toglie ecc... Altrimenti parliamo tanto per tifoseria speranzosa nelle inutilità altrui. Con i commenti esagerati è quella l'impressione che dai, eh, e con i 100 transistor stai seguendo la stessa strada.

Col RT non sarebbe proprio la stessa cosa, tanto per evitare repliche sul pelo fuori dal piatto. Ad esempio, non è detto che se in RDNA-2 ci fossero stati 2 RA per CU il fratello sarebbe stato uno sfaticato...
1, 2, 10, 100 unità frega nulla. Quello che conta sono i risultati e AMD è indietro con l'RT con la patchatura dell'ultimo minuto di una architettura che non era pensata per tale funzionalità. E i risultati sono abbastanza scarsi.
Là dove l'RT è usato per davvero (e non nei giochi sponsorizzati AMD che dicono di usarlo e poi lo fanno su 100 pixel e basta) le prestazioni delle GPU AMD cala a picco. E come non bastasse, mancano di tutto l'occorrente per riprendersi tramite qualche algoritmo di ricostruzione delle immagini.


Quote:
Originariamente inviato da Fos Guarda i messaggi
Dopo, se la vogliamo mettere sulle opinioni blande, si potrebbe anche dire che l'implementazione AMD alla integro finché posso spesso viene considerata più elegante, anche per il rapporto spesa/resa, ma appunto sarebbe un modo di vederla senza saperla più di tanto.

Per quanto ne sappiamo, domani Nvidia potrebbe virare verso l'approccio AMD e/o viceversa, quindi meglio non forzare troppo, dopo tocca tornare troppo indietro e seguendo una strana diversa.
Non so se mi spiego.
Ma che vuoi provare con queste frasi monche che non dicono nulla?
Che AMD con un RT indietro più di una generazione e un supporto alla AI indietro di 2 sta facendo un buon lavoro perché "integra più che può"?
Integra cosa? La solita roba vecchia di 5 anni rispetto alla concorrenza?
Dove stanno tutte le funzioni avanzate che oggi si potrebbero usare e invece persegue la strada di propinare le stesse identiche cose del 2012 solo più veloci?

AMD oggi di buono ha solo il PP (che è di TSMC e lei paga caro) ed è stata costretta a integrare il minimo possibile (non tutto quello che può) altrimenti le venivano piastrelle invece che die e i costi sarebbero stati ingestibili.
Non so se hai visto quanto guadagna AMD con il PP a 7nm... la vedo dura con quello a 5nm e tutto quello che ancora deve integrare... e magari senza il vantaggio del clock rispetto alla concorrenza che ha questo giro.

Ah, per concludere, finora chi ha inseguito e copiato alla grande è stata proprio AMD a partire da GCN e tutte le non-funzionalità che ha abbandonato con il VLIW per abbracciare l'architettura moderna delle SIMD già proposta da Nvidia 6 anni prima. E il tile rendering 4 anni dopo. E le istruzioni per l'IA (che poi non servono a niente fatte così come già visto) 5 anni dopo. E le unità RT 2 anni dopo. Chissà, magari tra 4 anni proporrà l'equivalente dei tensor core anche lei così che si potrà pensare di usare l'AI può proficuamente con tutti i giochi. 6 anni dopo la concorrenza.
Ma sì, aspettiamo (o solo speriamo per orgoglio?) che Nvidia viri verso la filosofia usata da AMD... prima però deve farsi superare e poi può copiare anche lei alla grande e nel frattempo fermare i progresso monopolizzando lo sviluppo dei giochi cone la fornitura dell'HW.. chissà se veramente avverrà il contrario, con console basate su HW Nvidia e quest'ultima che propone roba di 4 o 5 anni prima che tanto vende lo stesso visto che i giochi sul suo HW gireranno comunque bene.

Ultima modifica di CrapaDiLegno : 13-05-2021 alle 19:50.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 20:46   #37
Fos
Senior Member
 
L'Avatar di Fos
 
Iscritto dal: Aug 2004
Messaggi: 1472
Stai sbarellando di brutto, dimostrando ancora meglio chi è il fanboy offeso, altroché...

Pascal ha le stesse istruzioni, quindi va diretta anche di INT4? Stesse ha un significato solo, eh...

Poi continui a vederla sempre a modo tuo, parli del RT sulle vecchie come se fosse realmente usabile con dettagli e risoluzioni paragonabili. Ma de che!
Non è che è Nvidia che le ha rese compatibili tanto per far venire la voglia di passare oltre? Ma no, ci mancherebbe.

Sul RT divaghi portando il discorso dove non serviva alla discussione, ma la voglia era troppa, eh... Sul resto peggio ancora, ma non ho intenzione di venirti dietro.

Quello che fa l'esperto partendo sparando cazzate come quella che citavo, non sono io. Inutile divagare altrove per poi intorbidire le acque per farle sembrare profonde. Azz, sapevi di Pascal, ma RDNA-2 sull'AI doveva andare in emulazione. Ti sei informato dopo credendo che cambiasse qualcosa, o semplicemente con AMD sparli sempre a vanvera per partito preso?

Sull'effettiva utilità, niente, eh... Sei tu che hai parlato di possibilità strozzata dal fatto che le ALU di AMD non faranno solo quello, poi ti sorprendi se ti rispondo contestualemente? Io il filo lo seguo, mica che no...
Chi ha parlato di copiare? Lo vedi che la testa ti porta a buttarla in solo modo? Se un approccio si dimostra conveniente col tempo, perché non lo dovrebbero usare? Magari Nvidia ha usato quel metodo per avere subito prestazioni di livello, chi razzo lo ha negato? Il tuo parlare sa di infantile, questa è l'impressione che mi dai, e non credo di essere più un solitario...

Toni simili te li sei cercati fin dall'inizio, ora l'hai dimostrato con gli interessi.
Se pensi di migliorare cercando di buttarla a coppe sul personale, mi sa che hai scelto l'interlocutore sbagliato.

PS: Ah, dimenticavo: Il topic di quello che diceva che i tensor sono superflui? Occhio che la rischi grossa, buonuomo.
__________________
Xaser-5 | MSI-Z170A | i5-6600K@4.4GHz| RX-580 | 16GB-2740Mhz | X-Fi Fatal1ty | SSD NVMe + 4TB | LCD-27 | GigaWorks-S750

Ultima modifica di Fos : 13-05-2021 alle 20:51.
Fos è offline   Rispondi citando il messaggio o parte di esso
Old 13-05-2021, 21:12   #38
a.peter
Member
 
Iscritto dal: Sep 2020
Messaggi: 39
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
No, assolutamente.
GI è una parte delle capacità del ray tracing, non è la sua caratteristica di base.
In un programma per modellare e renderizzare scende architettoniche magari basta per aumentare il realismo dell'immagine finale, ma ray tracing è molta altra roba.
Chiameresti Global Illumination l'algoritmo che ti permette di calcolare la rifrazione di una corpo trasparente?
Chiameresti Global Illumination l'algoritmo che permette di calcolare hightlights, riflessioni e ombre, caustiche e iridiscenze? Interferenze e anche DoF?

Global Illumination è la dicitura "povera" di qualcosa che è molto di più. Serve a voi architetti per non farvi andare il cervello in pappa con paroloni che vi spaventerebbero.
Da che è nato, si chiama Ray-tracing e ci sono programmi che lo calcolano prima di avere i programmi di modellazione e prima che il PC avesse anche più di 16 colori.
Infatti le applicazioni di modellazione sono nate su Amiga con Read4D e Imagine, poi LightWave e Cinema 4D. Ai tempi il PC non aveva ancora il mouse. E là si chiamava ray tracing.
Non sono un architetto, poi i riflessi e le caustiche i software di render oggi te la fanno sia senza GI si RT, poi ti cito wiki, sicuramente sono più esperti di me.
Ray tracing:
"Il ray tracing è una tecnica generale di geometria ottica che si basa sul calcolo del percorso fatto dalla luce, seguendone i raggi attraverso l'interazione con le superfici."
[...] Nel contesto degli algoritmi di illuminazione globale, come il photon mapping ed il Metropolis light transport, il ray tracing è solo uno dei tool usati per calcolare il trasferimento di luce tra le superfici.

Illuminazione globale:
" [...] Radiosity, ray tracing, beam tracing, cone tracing, path tracing, metropolis light transport, ambient occlusion, e photon mapping sono esempi di algoritmi usati nel campo dell'illuminazione globale; alcuni possono essere combinati tra loro per ottenere risultati più rapidi, ma comunque accurati."

Quindi alle tue domande "Chiameresti Global Illumination l'algoritmo che ti permette di calcolare la rifrazione di una corpo trasparente?
Chiameresti Global Illumination l'algoritmo che permette di calcolare hightlights, riflessioni e ombre, caustiche e iridiscenze? Interferenze e anche DoF?" a tua sorpresa la risposta è si, e perchè? Perchè la GI è un insieme più ricco di algoritmi che collaborano, il RT è sicuramente uno dei più importanti, ma è uno dei tanti.
in più ti aggiungo una chicca: la profondità di campo (DoF) spesso è ottenuta "solo" in post produzione sfruttando le mappe di profondità, così il render 3d è più leggero e permette in secondo luogo di effettuare il focus sul punto desiderato, ma come si fa ad accorgersene vedendo il frame finale? semplice, non puoi.
Ed appunto in ultimo luogo dato che hai citato Cinema4D, li settando il motore di render su fisico, puoi avere il DoF senza utilizzare nè la GI nè RT (che appunto non ha nemmeno una sua voce)
__________________
Lenovo Y540 - i7 9750h - GTX 1660 Ti - RAM 16 GB - 1080p 144hz

Ultima modifica di a.peter : 13-05-2021 alle 21:25.
a.peter è offline   Rispondi citando il messaggio o parte di esso
Old 14-05-2021, 10:18   #39
CrapaDiLegno
Senior Member
 
Iscritto dal: Jan 2011
Messaggi: 2567
Ultima risposta a uno che è qui solo per fare l'avvocato difensore delle cause perse.

Quote:
Originariamente inviato da Fos Guarda i messaggi
Quello che fa l'esperto partendo sparando cazzate come quella che citavo, non sono io. Inutile divagare altrove per poi intorbidire le acque per farle sembrare profonde. Azz, sapevi di Pascal, ma RDNA-2 sull'AI doveva andare in emulazione. Ti sei informato dopo credendo che cambiasse qualcosa, o semplicemente con AMD sparli sempre a vanvera per partito preso?
Emulazione?
Non sai di cosa stai parlando ovviamente.
Il problema sono solo le prestazioni.
Senza tensor non vai da nessuna parte. E infatti AMD non sta andando da nessuna parte con la IA.
Nè su GPU nè su CPU, dove non ha proprio nulla.

Quote:
Originariamente inviato da Fos Guarda i messaggi
PS: Ah, dimenticavo: Il topic di quello che diceva che i tensor sono superflui? Occhio che la rischi grossa, buonuomo.
Rischio grosso? Sono minacciato?
Mi devo preoccupare?

Dai che anche questo mese ti sei portato a casa la pagnotta e vedrai che AMD ti versa l'obolo.

Quote:
Originariamente inviato da a.peter Guarda i messaggi
Non sono un architetto, poi i riflessi e le caustiche i software di render oggi te la fanno sia senza GI si RT, poi ti cito wiki, sicuramente sono più esperti di me.
Ray tracing:
"Il ray tracing è una tecnica generale di geometria ottica che si basa sul calcolo del percorso fatto dalla luce, seguendone i raggi attraverso l'interazione con le superfici."
[...] Nel contesto degli algoritmi di illuminazione globale, come il photon mapping ed il Metropolis light transport, il ray tracing è solo uno dei tool usati per calcolare il trasferimento di luce tra le superfici.

Illuminazione globale:
" [...] Radiosity, ray tracing, beam tracing, cone tracing, path tracing, metropolis light transport, ambient occlusion, e photon mapping sono esempi di algoritmi usati nel campo dell'illuminazione globale; alcuni possono essere combinati tra loro per ottenere risultati più rapidi, ma comunque accurati."

Quindi alle tue domande "Chiameresti Global Illumination l'algoritmo che ti permette di calcolare la rifrazione di una corpo trasparente?
Chiameresti Global Illumination l'algoritmo che permette di calcolare hightlights, riflessioni e ombre, caustiche e iridiscenze? Interferenze e anche DoF?" a tua sorpresa la risposta è si, e perchè? Perchè la GI è un insieme più ricco di algoritmi che collaborano, il RT è sicuramente uno dei più importanti, ma è uno dei tanti.
in più ti aggiungo una chicca: la profondità di campo (DoF) spesso è ottenuta "solo" in post produzione sfruttando le mappe di profondità, così il render 3d è più leggero e permette in secondo luogo di effettuare il focus sul punto desiderato, ma come si fa ad accorgersene vedendo il frame finale? semplice, non puoi.
Ed appunto in ultimo luogo dato che hai citato Cinema4D, li settando il motore di render su fisico, puoi avere il DoF senza utilizzare nè la GI nè RT (che appunto non ha nemmeno una sua voce)
Non confondiamo le cose.
La Global Illumination è una cosa, ed è un "effetto" della scena (uno dei tanti), il raytracing è una tecnica.
Con il ray tracing puoi calcolare la GI. Nessuno ha detto che la GI la puoi calcolare solo con il ray tracing.
Ma con il ray tracing puoi calcolare anche altre cose che non sono GI. Tipo simulare le caratteristiche di una lente. O creare caustiche. O il DoF.
Si possono calcolare in altra maniera?
Ovvio, e si può anche approssimarle con tecniche meno impegnative, ma questo cosa c'entra? Anche la GI si fa in mille modi, e infatti finora la si è calcolata senza alcun algoritmo computazionale pesante. I risultati sono però quello che sono quando li si confronta con quelli che si ottengono con un algoritmo come il ray tracing. Calcoli la GI con raytracing e radiosity? Superbo, risultati spettacolari, peccato che ci voglia 10x il tempo.
E non c'entra nulla con il resto degli effetti che il raytracing può calcolare oltre alla GI.

Quindi GI è una cosa (calcolabile in molte maniere) e il ray tracing è un'altra cosa, ovvero una tecnica (o più tecniche perché è implementabile in molti modi) che calcola (o più precisamente simula) il comportamento della luce, qualsiasi cosa essa faccia, anche non illuminare una scena o essere limitato solo a un particolare effetto/zona.
Con il raytracing si possono anche calcolare semplici texture che poi sono applicate con la normale tecnica raster.
Quindi la cosa più generale è la tecnica che permette di fare le cose, poi viene il particolare effetto che vuoi ottenere.

Se faccio un simulatore di lenti ottiche non chiamerò di certo l'algoritmo di calcolo "Global Illumination". Anche se sto usando tecniche di raytracing e calcolando come si muove la luce.
Il raytracing è una tecnica che può essere usato anche per mille altre cose, non solo illuminazione, comunque. Tipo calcolare lo spazio visible da una certa angolazione. Ovvero posso calcolare precisamente quello che una persona vede o meno quando è in certa posizione e guarda in una certa direzione. In generale quali superifici vengono colpite da un raggio tracciato.
Non escono i valori della luminosità di un pixel, ma una bella mappa di 1/0 che dice vedo/non vedo, colpito/non colpito. Sempre tecnica raytracing rimane.
Che è poi il calcolo che viene bene accelerato dagli RT core.

Quindi chiamare il raytracing semplicemente Global Illumination lo limita un po' al solo effetto che uno vuole calcolare. Ma c'è molto di più dietro.
E calcolare un effetto con altre tecniche meno precise è proprio quello che l'uso del raytracing vorrebbe evitare: l'approssimazione eccessiva. Approssimazione che c'è sempre (perché non puoi pretendere di tirare miliardi di raggi in tempo reale) ma può comunque aumentare la precisione rispetto a insiemi pre-calcolati che non possono di natura comprendere tutti i casi possibili.

Ecco perché si è introdotto il raytracing nei motori dei giochi per fare, oltre alla GI, anche il calcolo delle ombre precise e delle riflessioni (sempre speculari perché quelle diffuse necessitano mooolta più potenza di calcolo) e l'ambient occlusion.
Possibile arriveranno anche altri effetti, come le trasparenze che con il raster classico è un bel problema da ottenere, le caustiche dell'acqua, le luci volumetriche (oggi solo simulate tramite voxel che però non possono tenere conto dell'esatta provenienza di tutte le luci magari dinamiche della scena) e se la potenza aumenta anche magari applicarlo per quanto detto prima riguardo al calcolo della reale parte visibile di un personaggio (così magari la si smette di fare script dove i giocatori gestiti dal PC imbrogliano usando altri metodi per determinare cosa vedono o meno e quindi capaci di colpirti a un km di distanza una volta che ti hanno individuato, mentre prima a 1 metro non ti scorgevano nemmeno).

Tutto questo è calcolabile tramite ray tracing, e metterlo sotto la dicitura "Global Illumination" che è un effetto importante e ricade sugli altri senza dubbio, è un po' limitativo.

Per la questione Cinama4D è evidente che la scelta è quella di dare il nome agli effetti indipendentemente dall'algoritmo utilizzato per realizzarli, esattamente come la questione Global Illumination vs raytracing.
CrapaDiLegno è offline   Rispondi citando il messaggio o parte di esso
Old 14-05-2021, 11:03   #40
Fos
Senior Member
 
L'Avatar di Fos
 
Iscritto dal: Aug 2004
Messaggi: 1472
Quote:
Originariamente inviato da CrapaDiLegno Guarda i messaggi
Ultima risposta a uno che è qui solo per fare l'avvocato difensore delle cause perse.
Emulazione?
Non sai di cosa stai parlando ovviamente.
Il problema sono solo le prestazioni.
Senza tensor non vai da nessuna parte. E infatti AMD non sta andando da nessuna parte con la IA.
Nè su GPU nè su CPU, dove non ha proprio nulla.
Ecco, fai finta di non capire, che ti conviene.

AMD non fa nulla direttamente, le INT4 erano dappertutto, e tu non spari razzate.
Eh, sì, per te è sicuro che AMD e MS si gratteranno a perdere, che con quelle possibilità non ci fai niente di utile ecc... Solo perché ti conviene pensarlo, o hai qualche dato, esempio, esperimento... qualsiasi cosa che non sia fuffa, insomma.

Quote:
Rischio grosso? Sono minacciato?
Mi devo preoccupare?

Dai che anche questo mese ti sei portato a casa la pagnotta e vedrai che AMD ti versa l'obolo.
Hey, me lo posti quel topic o contiui a schivare l'osso? Rischi grosso intendevo la faccia, visto che pare proprio che ti stessi riferendo a qualcuno a cui non rispondi direttamente.
Comportamento puerile tale da sotterrarsi. Per me è grosso, dopo, se la faccia te la sei già giocata: Rischi solo la conferma.

Quote:
Non confondiamo le cose.
Appunto, non confondere le cose. Quello che ti ha postato è fin troppo chiaro, inutile continuare ad intorbidire l'acqua... Quello che non sa di cosa parla continua a ribadirlo.

In quel contesto il ray tracing entrava in quel modo. Il resto è indiretto, e per farlo non è indispensabile usare la sola tecnica Ray tracing che rientra nell'insieme. Anche se ci calcoli i rimbalzi dell'audio, da dove parti...? Tra l'altro è il RT ad essere approssimativo, in quella lista ci sono metodi unbiased, ben superiori al RT, che da come la metti pare l'asse imprescindibile.
Chissà perché tendi ad amplificare il RT, chissà...
__________________
Xaser-5 | MSI-Z170A | i5-6600K@4.4GHz| RX-580 | 16GB-2740Mhz | X-Fi Fatal1ty | SSD NVMe + 4TB | LCD-27 | GigaWorks-S750

Ultima modifica di Fos : 14-05-2021 alle 11:06.
Fos è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Chi è Jen-Hsun 'Jensen' Huang, una vita a fare Nvidia Chi è Jen-Hsun 'Jensen' Huang, una vita a...
Google Fuchsia usa un microkernel. Qual è la differenza e perché è rilevante Google Fuchsia usa un microkernel. Qual è...
Lenovo ThinkVision T34w, ultrawide 34 pollici per la produttività Lenovo ThinkVision T34w, ultrawide 34 pollici pe...
realme GT: prestazioni ed esperienza da top di gamma a 399 euro! La recensione realme GT: prestazioni ed esperienza da top di g...
OPPO Find X3 Pro: la prova su ''strada'' con Lamborghini OPPO Find X3 Pro: la prova su ''strada'' con Lam...
Amazon Prime Day 2021: le offerte su Ech...
Amazon Prime Day 2021 scatta a mezzanott...
Ecovacs Deebot N8+ è il robot che...
Tesla Model 3: eccola in versione auto d...
Lo stagista manda per sbaglio un'email a...
OpenAI: il generatore automatico di test...
FIFA 21: finalmente è possibile vedere i...
HUAWEI Watch 3 e FreeBuds 4 disponibili ...
Smartphone 5G: Samsung e vivo sono i pro...
Boom vendite online: UE vara nuove regol...
Intel, la nuova Fab di semiconduttori eu...
Lenovo, ecco le nuove workstation mobile...
TEAMGROUP brucia le tappe, DDR5 della se...
Fotografia Europea 2021: torna a Reggio ...
Amazon, tutte le offerte del weekend: OP...
K-Lite Codec Pack Update
K-Lite Mega Codec Pack
K-Lite Codec Pack Full
K-Lite Codec Pack Standard
K-Lite Codec Pack Basic
Firefox Portable
CCleaner Portable
CCleaner Standard
Opera 77
SmartFTP
PCMark 10 Basic Edition
AVG Antivirus Free
Avast! Free Antivirus
Firefox 89
Process Lasso
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 22:18.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2021, Jelsoft Enterprises Ltd.
Served by www3v
1