Torna indietro   Hardware Upgrade Forum > Componenti Hardware > Schede Video > Schede Video - Discussioni generali

DJI Mic Mini 2: audio 48 kHz / 24-bit e protocollo OsmoAudio sotto i 100 Euro
DJI Mic Mini 2: audio 48 kHz / 24-bit e protocollo OsmoAudio sotto i 100 Euro
DJI presenta Mic Mini 2, un sistema microfonico wireless ultra-compatto progettato per democratizzare l'audio di alta qualità nella fascia entry-level. Con un peso di soli 11 grammi per il trasmettitore elimina i fastidi tipici dei modelli più pesanti sui vestiti. Nonostante la miniaturizzazione Mic Mini 2 offre prestazioni tecniche di rilievo: registrazione omnidirezionale a 48 kHz/24-bit, tre preset vocali (Regular, Bright, Rich) e un sistema di cancellazione attiva del rumore a due livelli.
Recensione Moto G77: display AMOLED e buona autonomia per il midrange economico
Recensione Moto G77: display AMOLED e buona autonomia per il midrange economico
Motorola propone in fascia media il nuovo Moto G77 5G, uno smartphone che punta sul display AMOLED da 1.5K a 120Hz, e sulla fotocamera da 108 MP con stabilizzazione ottica per affrontare la fascia media. Il tutto insieme a una batteria da 5200mAh in soli 7,3 millimetri di spessore, con una scocca certificata con standard militari
DJI Lito 1 e Lito X1 recensione: i nuovi droni per principianti che non si fanno mancare nulla
DJI Lito 1 e Lito X1 recensione: i nuovi droni per principianti che non si fanno mancare nulla
DJI ha appena ufficializzato la serie Lito, la sua nuova gamma di droni entry-level destinata a chi si avvicina per la prima volta alla fotografia aerea. Al centro dell'annuncio ci sono due modelli ben distinti per fascia di prezzo e specifiche tecniche: DJI Lito 1 e DJI Lito X1. Entrambi si collocano sotto la soglia regolamentare dei 249 grammi, che permette di volare con requisiti burocratici più semplici rispetto ai droni più pesanti.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 01-10-2020, 13:26   #63581
Crysis90
Bannato
 
Iscritto dal: Sep 2006
Messaggi: 6414
Quote:
Originariamente inviato da Gundam1973 Guarda i messaggi
Non avevi detto...ci rivediamo alla presentazione?
Infatti e lo confermo.
Ma lui voleva insistere in tutti i modi.

Ultima modifica di Crysis90 : 01-10-2020 alle 16:14.
Crysis90 è offline   Rispondi citando il messaggio o parte di esso
Old 01-10-2020, 13:33   #63582
ninja750
Senior Member
 
L'Avatar di ninja750
 
Iscritto dal: Sep 2003
Città: Torino
Messaggi: 21913
Quote:
Originariamente inviato da FedNat Guarda i messaggi
In base a questo il massimo che la 3090 poteva ottenere è il 20% in più della 3080. Se teniamo conto che tra teoria e pratica c'è sempre qualche inefficenza in più mi pare che i risultati visti nelle recensioni tornino
credo si riferiscano alle perf/prezzo

resta da vedere se veramente nvidia uscirà con la 3070 "a partire da" 519€ cioè se capiterà come con la 3080 possiamo aspettarci un prezzo a rivenditore di almeno 600€ e scorte limitate quindi gran terreno fertile per amd se quella sarà la zona della full completa

la chiave di tutto sarà anche e soprattutto data dalla disponibilità, presentare e non avere da vendere (soprattutto al prezzo pubblicizzato) sarà come non aver presentato nulla di fatto
ninja750 è offline   Rispondi citando il messaggio o parte di esso
Old 01-10-2020, 13:55   #63583
Piedone1113
Senior Member
 
Iscritto dal: Jul 2015
Messaggi: 5672
Quote:
Originariamente inviato da Dotto Raus Guarda i messaggi
Gran terreno fertile se effettivamente riescono a metterle sul mercato in quantità. Io ragazzi lo dico molto sinceramente: non credo che AMD esca con tante schede sul mercato, per me ci saranno gli stessi identici problemi della serie 3000 nvidia. Il covid ha fatto chiudere le fabbriche per 4/5 mesi, impensabile che non ne risentano. Figurarsi che gli iphone non sono nemmeno ancora usciti.
Di nvidia non sappiamo se siano problemi di resa o problema di assemblaggio.
Se sono di resa ad AMD non sfiora il problema, se invece di fabbrica bisogna solo aspettare e vedere
Piedone1113 è offline   Rispondi citando il messaggio o parte di esso
Old 01-10-2020, 14:07   #63584
Ale55andr0
Senior Member
 
L'Avatar di Ale55andr0
 
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 21603
Quote:
Originariamente inviato da Dotto Raus Guarda i messaggi
Per nvidia per me è un mix di cose però è impensabile che con le fabbriche in cina chiuse per 4 mesi le cose sarebbero state normali come nulla fosse.
ma siamo proprio sicuri sicuri sicuri che la cina abbia chiuso le fabbriche per 4 mesi quando sono gli stessi che hanno bofonchiato di essere usciti dal covid tipo un mese dopo l'emergenza con tanto di gente che si toglieva le mascherine per le telecamere? E poi nvidia usa samsung che è coreana, o fabbricano anche loro in cina?
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT VENTI gigabyte Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb Monitor: 27" 4K (era ora) 10bit VERI, calibrato in fabbrica I will say no more
Ale55andr0 è offline   Rispondi citando il messaggio o parte di esso
Old 01-10-2020, 14:18   #63585
Gundam1973
Senior Member
 
L'Avatar di Gundam1973
 
Iscritto dal: Jan 2008
Città: Roma
Messaggi: 5328
Quote:
Originariamente inviato da Crysis90 Guarda i messaggi
Infatti e lo confermo.
Ma lui voleva insistere in tutti i modi. :noh:
eh ma sei ancora qua....dai su...sciò sciò... non sprecare ulteriore banda!
__________________
CM HAF X + Ryzen 9 5950X Alphacool Core 1 Aurora + Asus X570 CH8 HERO + Kingston Fury Beast 32GB 3766C16 + XFX 9070XT Mercury OC Alphacool Core + LC1200P2 1200W Platinum +
SK Hynix Platinum P41 2TB + Crucial P5 Plus 1TB + HDD Seagate 4TB + Aquaero 6LT + Radiatori 2x360 + LG Ultragear 32GR93U 4K 144HZ + Logitech G213 G502 Z506 G Pro X SE Streamcam
Gundam1973 è offline   Rispondi citando il messaggio o parte di esso
Old 01-10-2020, 14:37   #63586
mikael84
Moderatore
 
L'Avatar di mikael84
 
Iscritto dal: Mar 2007
Messaggi: 22795
Quote:
Originariamente inviato da FedNat Guarda i messaggi
In realtà la 3090 non scala male rispetto alla 3080 (e in AMD lo sapevano di sicuro).
La 3090 ha circa il 20% di risorse (Cores, TMU, ROP, ecc...) rispetto alla 3090. Le frequenze sono le stesse. La memoria è aumentata ma quella non aumenta le prestazioni a meno di non essere framebuffer limited.

In base a questo il massimo che la 3090 poteva ottenere è il 20% in più della 3080. Se teniamo conto che tra teoria e pratica c'è sempre qualche inefficenza in più mi pare che i risultati visti nelle recensioni tornino
Ora che hanno slegato le rop's, anche meno.
20% sulle ALU-INT-TMU, 16% tra rop's (96-112) e 16% sulle primitive.
__________________
Ryzen 5800x3D - Msi B450TH - Corsair 32gb 3600 lpx - Red Devil RX 9070XT - samsung 860 pro 1tb - 4tb storage - Acer g-sync xb270hu - AOC CU34G2XPD - MSI MPG A850G atx3.0 - FTTH tim 2,5 gbps.
mikael84 è offline   Rispondi citando il messaggio o parte di esso
Old 01-10-2020, 14:52   #63587
AkiraFudo
Senior Member
 
L'Avatar di AkiraFudo
 
Iscritto dal: Sep 2005
Città: Caput mundi
Messaggi: 1838
Quote:
Originariamente inviato da Andy1111 Guarda i messaggi
libero di crederlo, io invece penso che le ha tirate al massimo anche a scapito dei consumi solo per avere una differenza decente contro la 2080 TI, dovevano essere fatte coi 7+ di tsmc ma volevano far scendere il prezzo e hanno cercato di fare i furbetti, alla fine gli è andata male che i 7+ erano pieni e ha dovuto ripiegare sugli 8 di samsung
Da quanto ho capito io ci sarebbe voluto troppo tempo ed alti costi per svilupparlo su TSMC.

Sul TSMC 7nm essendo euv, nVidia avrebbe dovuto ridisegnarlo da zero, invece sul 8nm duv di Samsung l'ha potuto adattare facilmente.

nVidia stessa un anno e mezzo fa ha dichiarato che ampere sarebbe stato TSMC quindi la storia dei "erano pieni" è un' invenzione messa in giro da qualche fanboy per giustificare la favoleta del poverina ha l'handicap del nodo di svantaggio e AMD fa dei chip schifosi, ma la realtà è che oltre ad aver lesinato sui costi con del silicio economico non è stata proprio in grado di usare TSMC che aveva già scelto in precedenza ma causa tempi e costi di sviluppo ha ripiegato su un pp duv come il precedente.

Insomma non si è svegliata tardi, usare 8nm duv samsung è stata una sua scelta voluta.

Secondo me cmq Ampere sarebbe stato uno scalda pizzette anche su un pp diverso è che fa proprio pena. Vediamo ora se AMD riesce a darsi la solita zappata sui piedi.
AkiraFudo è offline   Rispondi citando il messaggio o parte di esso
Old 01-10-2020, 15:11   #63588
Gundam1973
Senior Member
 
L'Avatar di Gundam1973
 
Iscritto dal: Jan 2008
Città: Roma
Messaggi: 5328
Quote:
Originariamente inviato da AkiraFudo Guarda i messaggi
Da quanto ho capito io ci sarebbe voluto troppo tempo ed alti costi per svilupparlo su TSMC.

Sul TSMC 7nm essendo euv, nVidia avrebbe dovuto ridisegnarlo da zero, invece sul 8nm duv di Samsung l'ha potuto adattare facilmente.

nVidia stessa un anno e mezzo fa ha dichiarato che ampere sarebbe stato TSMC quindi la storia dei "erano pieni" è un' invenzione messa in giro da qualche fanboy per giustificare la favoleta del poverina ha l'handicap del nodo di svantaggio e AMD fa dei chip schifosi, ma la realtà è che oltre ad aver lesinato sui costi con del silicio economico non è stata proprio in grado di usare TSMC che aveva già scelto in precedenza ma causa tempi e costi di sviluppo ha ripiegato su un pp duv come il precedente.

Insomma non si è svegliata tardi, usare 8nm duv samsung è stata una sua scelta voluta.

Secondo me cmq Ampere sarebbe stato uno scalda pizzette anche su un pp diverso è che fa proprio pena. Vediamo ora se AMD riesce a darsi la solita zappata sui piedi.
Spero di no....anzi a sto giro ho sensazioni positive....ma spesso AMD è stata autolesionista quindi aspettiamo e vediamo!
__________________
CM HAF X + Ryzen 9 5950X Alphacool Core 1 Aurora + Asus X570 CH8 HERO + Kingston Fury Beast 32GB 3766C16 + XFX 9070XT Mercury OC Alphacool Core + LC1200P2 1200W Platinum +
SK Hynix Platinum P41 2TB + Crucial P5 Plus 1TB + HDD Seagate 4TB + Aquaero 6LT + Radiatori 2x360 + LG Ultragear 32GR93U 4K 144HZ + Logitech G213 G502 Z506 G Pro X SE Streamcam
Gundam1973 è offline   Rispondi citando il messaggio o parte di esso
Old 01-10-2020, 15:21   #63589
leone93
Member
 
Iscritto dal: May 2010
Messaggi: 54
Mi chiedevo se un eventuale DLSS AMD ( ammesso che esista) necessiti comunque di core dedicati , oppure possa essere un qualcosa che possa essere portato anche sulla serie 5700
leone93 è offline   Rispondi citando il messaggio o parte di esso
Old 01-10-2020, 15:31   #63590
amon.akira
Senior Member
 
L'Avatar di amon.akira
 
Iscritto dal: Jan 2006
Messaggi: 5856
Quote:
Originariamente inviato da AkiraFudo Guarda i messaggi
Da quanto ho capito io ci sarebbe voluto troppo tempo ed alti costi per svilupparlo su TSMC.

Sul TSMC 7nm essendo euv, nVidia avrebbe dovuto ridisegnarlo da zero, invece sul 8nm duv di Samsung l'ha potuto adattare facilmente.

nVidia stessa un anno e mezzo fa ha dichiarato che ampere sarebbe stato TSMC quindi la storia dei "erano pieni" è un' invenzione messa in giro da qualche fanboy per giustificare la favoleta del poverina ha l'handicap del nodo di svantaggio e AMD fa dei chip schifosi, ma la realtà è che oltre ad aver lesinato sui costi con del silicio economico non è stata proprio in grado di usare TSMC che aveva già scelto in precedenza ma causa tempi e costi di sviluppo ha ripiegato su un pp duv come il precedente.

Insomma non si è svegliata tardi, usare 8nm duv samsung è stata una sua scelta voluta.

Secondo me cmq Ampere sarebbe stato uno scalda pizzette anche su un pp diverso è che fa proprio pena. Vediamo ora se AMD riesce a darsi la solita zappata sui piedi.
certo che lo ha scelto nvidia l 8nm, ma ciò non cambia che amd sia su un pp avanti, e ciò conta se si vogliono confrontare le 2 architetture.

quindi vedremo ora una 3080 normalizzata a 300/320w vs bignavi a pari watt ma con un pp avanti quanti fps ci saranno di differenza, sopratutto in RT son curioso.
__________________
Display Asus ProArt PA32UCG-K 32" 4K 120Hz HDR MiniLED 1152zone GPU Nvidia RTX Founders Edition 5080 3000MHz 34Gbps 950mV CPU Intel 14600K P-Core 5.3GHz E-Core 4.0GHz DDR5 G.Skill Trident Z5 RGB 32GB 7200 MT/s CL32 MB Z790 Gigabyte Gaming X SSD WD BLACK SN850X PCIe 4.0 4TB HDD WD Red 4TB Cooler Noctua NH-D15S chromax PSU MSI MPG A1000G Case Streacom BC1-V2 Titanium KB|Mouse Logitech G512 Carbon / G102 Prodigy M.Audio Edifier S880DB
amon.akira è offline   Rispondi citando il messaggio o parte di esso
Old 01-10-2020, 16:02   #63591
NAP.
Senior Member
 
L'Avatar di NAP.
 
Iscritto dal: Oct 2005
Messaggi: 3825
Al livello di pure prestazioni le proposte nVidia spaccano non c'è molto da dire, certo però quando uno va ad indagare sull'architettura e scopre un pp non proprio all'ultimo grido, un power limit maggiorato di 100w (che grazie al c***o la scheda va più forte) e temperature meh, direi che nVidia non ha fatto proprio centro stavolta (ma già con turing niente di che). Mettiamoci pure il lancio colpito dal covid e abbiamo mezza frittata fatta. AMD può seriamente insediarla stavolta, se si oresenta ancora una volta con roba vecchia o con prestazioni scadenti e prezzi di cartello che chiudessero la divisione gpu e tornassero a fare solo cpu
__________________
I MIEI FEEDBACK: Lino P.; Alex3oo1; galaverna; ingwye
NAP. è offline   Rispondi citando il messaggio o parte di esso
Old 01-10-2020, 16:04   #63592
AkiraFudo
Senior Member
 
L'Avatar di AkiraFudo
 
Iscritto dal: Sep 2005
Città: Caput mundi
Messaggi: 1838
Quote:
Originariamente inviato da amon.akira Guarda i messaggi
certo che lo ha scelto nvidia l 8nm, ma ciò non cambia che amd sia su un pp avanti, e ciò conta se si vogliono confrontare le 2 architetture.

quindi vedremo ora una 3080 normalizzata a 300/320w vs bignavi a pari watt ma con un pp avanti quanti fps ci saranno di differenza, sopratutto in RT son curioso.
come fate a dire con certezza che l'8nm samsung sia cosi inferiore al tsmc?

forse ho inteso male ma se AMD a pari consumi facesse pari FPS, per te sarebbe un' archittetura inferiore?

Io valuterei unicamente i risultati: performance/consumi/prezzo; tutto il resto e come ci siano arrivati sono meri numeretti per noi; meriti e demeriti vanno a loro.

Giustifichiamo nVidia dicendo che è Van Gogh ma aveva il pennello rovinato ma allora anche io se avevo tre palle ero un flipper.
AkiraFudo è offline   Rispondi citando il messaggio o parte di esso
Old 01-10-2020, 16:05   #63593
ionet
Senior Member
 
Iscritto dal: Mar 2002
Messaggi: 2036
Quote:
Originariamente inviato da ninja750 Guarda i messaggi
potrebbe essere che scali davvero male così come si è visto tra 3090 e 3080

ma tipicamente le soluzioni AMD sono sempre state abbastanza lineari tranne recentemente con la 5600XT che ha cannibalizzato di fatto la 5700 liscia, due vga di fascia diversa con quantità di ram diversa e clock / bus diversi
la 3090 va rispetto alla 3080 come previsto,dopotutto si basano sullo stesso progetto GA102
sembra che scala meno delle precedenti generazioni perche appunto prima si basava su un progetto minore,serie xx104,ovvio che il divario prima era notevole
la domanda e' perche questa volta nvidia ha usato il xx102 nato per le titan/xx80ti?
facendolo pure trottare,raggiungendo consumi inconcepibili da parte della stessa
inutile aspettarsi qualche sorpresa dalla 3070ti,giusto uno sputo extra dalla 3070,navi 21 full pompata la passa tranquillamente

a meno che un eventuale 3070ti/super si basa sempre sul ga102 cuttato,ma per questo nvidia attende amd per vedere come deve giocarsela

Ultima modifica di ionet : 01-10-2020 alle 16:10.
ionet è offline   Rispondi citando il messaggio o parte di esso
Old 01-10-2020, 16:16   #63594
Ale55andr0
Senior Member
 
L'Avatar di Ale55andr0
 
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 21603
-27
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT VENTI gigabyte Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb Monitor: 27" 4K (era ora) 10bit VERI, calibrato in fabbrica I will say no more
Ale55andr0 è offline   Rispondi citando il messaggio o parte di esso
Old 01-10-2020, 16:16   #63595
Ton90maz
Bannato
 
Iscritto dal: Aug 2013
Messaggi: 2455
Quote:
Originariamente inviato da fraussantin Guarda i messaggi
Ti sei perso come amd furbescamente abbia trasformato il 3700 in 3700x e quello che doveva chiamarsi 3700x in 3800x . ( Non cacciare fuori il 1800x perchè per i modelli di punta non sono più octacore e vorrei anche vedere)

Altra strategia furba è stata quella di alzare il costo del chipset x570 e b550 e ha anche provato a impedirne l'uso per chi possiede chipset inferiori. Poi gli è andata male.

Se veramente stavolta le loro CPU saranno migliori di Intel costeranno più dei 3000. Meno di Intel penso e spero , ma aumenteranno
Scusate per l'ot

Di furberie contro l'utente ne hanno fatte una valanga, ma che prezzi dovrebbero avere per costare più dei 3000 e meno degli intel, quando intel stessa ha abbassato i prezzi? Dovrebbe costare più di intel, e in effetti già costa di più, se andiamo a prendere quegli aborti degli xt
Ton90maz è offline   Rispondi citando il messaggio o parte di esso
Old 01-10-2020, 16:37   #63596
Piedone1113
Senior Member
 
Iscritto dal: Jul 2015
Messaggi: 5672
Quote:
Originariamente inviato da amon.akira Guarda i messaggi
certo che lo ha scelto nvidia l 8nm, ma ciò non cambia che amd sia su un pp avanti, e ciò conta se si vogliono confrontare le 2 architetture.

quindi vedremo ora una 3080 normalizzata a 300/320w vs bignavi a pari watt ma con un pp avanti quanti fps ci saranno di differenza, sopratutto in RT son curioso.
Per PP avanti intendi un pipino avanti o cosa?
Parlare poi di Nodo ( se per PP intendi processo produttivo) paragonandoli tra fonderie diverse non ha proprio senso:
Il 7nm TSMC vs il 14++ Intel ha una densità maggiore del solo 12% e del 15% di potenza risparmiata.
Quindi facendo una media:
dal 14 intel al 7 tsmc ci sono, vediamo un pò:
14, 12, 10, 8, 7.
Quindi con ben 4 nodi .
Mettiamo 16% di guadagno totale, 4% a nodo.
Quindi se AMD ha un vantaggio consumo/prestazioni inferiore al 4% rispetto a Nvidia dico che hai ragione.
Altrimenti potrebbe sembrare un

Ultima modifica di Piedone1113 : 01-10-2020 alle 16:39.
Piedone1113 è offline   Rispondi citando il messaggio o parte di esso
Old 01-10-2020, 16:49   #63597
ninja750
Senior Member
 
L'Avatar di ninja750
 
Iscritto dal: Sep 2003
Città: Torino
Messaggi: 21913
Quote:
Originariamente inviato da AkiraFudo Guarda i messaggi
Io valuterei unicamente i risultati: performance/consumi/prezzo; tutto il resto e come ci siano arrivati sono meri numeretti per noi; meriti e demeriti vanno a loro.
ma difatti eppure anche quando si confronta l'attuale 2070s vs 5700xt "eh ma il nodo di vantaggio"
ninja750 è offline   Rispondi citando il messaggio o parte di esso
Old 01-10-2020, 16:49   #63598
Ale55andr0
Senior Member
 
L'Avatar di Ale55andr0
 
Iscritto dal: Nov 2008
Città: Un corridoio di schiaffoni
Messaggi: 21603
per quel che vale (ergo non scartavetrate la sacca scrotale sull'affidabilità delle info, visto che vengono pure postati post di tizio&caio su twitter&reddit )

https://www.youtube.com/watch?v=IJHnaxZdeEk

nella prima parte del video, e poi dal minuto 13, il tizio parla molto della bandwidth e del bus a 256bit delle nuove gpu AMD

Quote:
Originariamente inviato da ninja750 Guarda i messaggi
ma difatti eppure anche quando si confronta l'attuale 2070s vs 5700xt "eh ma il nodo di vantaggio"
non scordiamo la conta dei transistor al mm^2

e ah, i consumi alti

ora quelle cosucce non contano più un cazzo, ovviamente
__________________
Case: CM690III PSU: Seasonic M12II Evo 750w Mobo: Asus x470 Prime Pro CPU: AMD Ryzen 5700x Dissi: Arctic Freezer 33CO Ram: 32Gb (2*16Gb) Corsair Vengeance LPX 3200/C16 VGA: Sapphire Pulse 7900XT VENTI gigabyte Storage: nvme M2 Sabrent 512Gb + HDD WD Black 2Tb Monitor: 27" 4K (era ora) 10bit VERI, calibrato in fabbrica I will say no more

Ultima modifica di Ale55andr0 : 01-10-2020 alle 16:52.
Ale55andr0 è offline   Rispondi citando il messaggio o parte di esso
Old 01-10-2020, 17:17   #63599
FroZen
Bannato
 
Iscritto dal: Aug 2001
Città: Bergamooo...
Messaggi: 20089
Il JIT di Toyota applicato ai dati GPU mi mancava mbhooooooooooo rimango scettico perchè quando ero ottimista l'ho sempre preso nel didietro tutto qua....
FroZen è offline   Rispondi citando il messaggio o parte di esso
Old 01-10-2020, 18:28   #63600
Blee
Senior Member
 
Iscritto dal: Feb 2020
Messaggi: 3164
Quote:
Originariamente inviato da Dark_Wolf Guarda i messaggi
Mi imbuco nel thread per dire qualche stronzata da possessore nvidia di una 1080ti.
Penso che a questo giro AMD abbia da vincere a mani basse, se riesce a poggiare una soluzione dalla potenza di 2080ti a 400 euro nominali (che diventeranno 550 fra custom e rialzo dato dalle normali usanze di usura legalizzata del mercato). In questo frangente sarebbe una scheda che tirerebbe alla grande nella fascia 1080-1440, quel giusto per tenere ultra o rinunciare a qualche orpello per i 60 fps (anche perché, parliamoci chiaro, ultra sono spesso delle stupiderie mentali che nel contesto di un'immagine dinamica risultano impercettibili o quasi).
Ciò detto, penso che le 2080ti a 400 euro da prendere fra le varie offerte al volo non siano altrettanto male, alla fine significa pur sempre la metà di una 3080 nuova per il 20-30% di resa in meno.
Diciamo che anche a questo giro il salto del 4k@60fps c'è ma solo per i titoli a ridosso del 2019-2020 e sempre ottimizzati per mostrare la forza bruta delle schede. Salvo fatti eclatanti o esigenze particolari la 3080 non dovrebbe rappresentare un problema per AMD; lo sarebbe molto di più la 3070, che rischia di essere un ottimo competitor per la fascia 1080.
Però a 1440p a ultra già va bene la 5700xt.
Blee è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


DJI Mic Mini 2: audio 48 kHz / 24-bit e protocollo OsmoAudio sotto i 100 Euro DJI Mic Mini 2: audio 48 kHz / 24-bit e protocol...
Recensione Moto G77: display AMOLED e buona autonomia per il midrange economico Recensione Moto G77: display AMOLED e buona auto...
DJI Lito 1 e Lito X1 recensione: i nuovi droni per principianti che non si fanno mancare nulla DJI Lito 1 e Lito X1 recensione: i nuovi droni p...
Sony World Photography Awards 2026: i premiati, anche italiani, il punto sulla fotografia di oggi Sony World Photography Awards 2026: i premiati, ...
Una settimana con Hyundai Ioniq 5 N-Line: diverte e convince Una settimana con Hyundai Ioniq 5 N-Line: divert...
La propulsione ottica con metajet potreb...
La missione Artemis III potrebbe essere ...
Mad Catz M.M.O. 7+: il mouse MMO da cult...
SAS porta il calcolo quantistico nelle a...
Un miliardo di dollari da SAS per portar...
SAS si apre all'IA di terzi: Viya integr...
Quantinuum si appresta a debuttare in Bo...
Censis: il 60% degli italiani evita i me...
Cloud sovrano: Microsoft potenzia Azure ...
Spionaggio industriale: l'edge è ...
Cosa cambia davvero su un'auto elettrica...
Agenti AI più costosi dei dipende...
GeForce RTX 5070 Laptop da 12 GB al debu...
Le aziende e i prodotti candidati all'EH...
Il materiale che cambia tutto: funziona ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 04:44.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v