PDA

View Full Version : Display port e GPU Radeon: alcune immagini


Redazione di Hardware Upg
07-12-2007, 16:39
Link alla notizia: http://www.hwupgrade.it/news/skvideo/display-port-e-gpu-radeon-alcune-immagini_23546.html

Le soluzioni RV635, prossima generazione di schede video ATI di fascia media, integreranno anche supporto alle connessioni DisplayPort

Click sul link per visualizzare la notizia.

imayoda
07-12-2007, 16:55
Alziamoci in coro:
Basta con i nuovi spinotti!!!
:huh:

K7-500
07-12-2007, 17:09
In questo caso direi flessibilità.

v1nline
07-12-2007, 17:12
Alziamoci in coro:
Basta con i nuovi spinotti!!!
:huh:

concordo, ma io tifo per questo display port. hdmi non mi piace

Bighi
07-12-2007, 17:16
Tutti a ricambiare i monitor e tv Hd dopo aver preso HDMi...

FabioCC
07-12-2007, 17:26
ce n'era proprio bisogno di sta porta? :|

donfranco77
07-12-2007, 17:29
Meglio più che meno :D

Teo__90
07-12-2007, 17:31
Tutti a ricambiare i monitor e tv Hd dopo aver preso HDMI...

ma chi ha detto che devi cambiare di nuovo il monitor...se hai letto l'articolo queste vga avranno molte porte compresa la HDMi quindi...non vedo che problemi hai contro questa nuova porta...anzi...io la vedo una cosa buona se continuano a fare innovazione pur mantenendo i "vecchi" standard.

Speedy L\'originale
07-12-2007, 17:31
Dov'è finito il vecchio, ma valido Tv-Out?

La mia Tv non Hdmi con cosa l'attacco?

Stivmaister
07-12-2007, 17:48
Non avevano + niente da fare che inventarsi un'altra porta???

Scanseby
07-12-2007, 18:09
Boicottiamo le schede con il DisplayPort!
VGA, DVI e soprattutto HDMI bastano e avanzano per altri 5 anni!

P.S. A parte la DVI quale sarebbe la DisplayPort dato che sembrono due porte HDMI identiche?

Sunriis
07-12-2007, 18:10
non è la prima volta che trovo scritto che DPCP sta per DisplayPoty Content Protection, si insiste nell'errore eh :D

Eraser|85
07-12-2007, 18:17
veramente sarebbe ora di boicottare tutte le altre interfacce (HDMI in primis) in favore della DisplayPort, che sarà lo standard de-facto per i prossimi anni

ricordo infine:
-It defines a new license-free, royalty-free, state-of-the-art digital audio/video interconnect, intended to be used primarily between a computer and its display monitor, or a computer and a home-theater system.
-Newly featured in version 1.1 is the support of HDCP content protection and support for fiber optic cables as an alternative to copper, allowing a much longer reach between source and display without image degradation.
-Supportata sia da AMD che Intel

fonte: http://en.wikipedia.org/w/index.php?title=DisplayPort

Mietzsche
07-12-2007, 18:20
Alla faccia della flessibilità! Spero includano l'adattatore per VGA 15pin! Non credo di dire una fesseria se affermo che il 70% dell'attuale parco monitor ha solo l'ingresso analogico.
Riguardo le protezioni varie, continuo a reputare un'assurdità che un contenuto ad "alta definizione" protetto non possa essere visualizzato su uno schermo analogico (CRT, LCD senza HDMI ...) che di risoluzione ne hanno ormai da 20 anni di più dell'alta defec.. definizione!

imayoda
07-12-2007, 18:21
Ma dai.. anni fa dicevano la stessa cosa di altre connessioni.. ma tra qualche anno sarai tu ad affermare ciò che dico io adesso. :)
.. fuori abbiamo ancora rame e pstn e questa porta rivoluzionerà la vita di tutti.. siamo dei pazzi a non vederlo

Scanseby
07-12-2007, 18:51
Il concetto di flessibilità (=retrocompatibilità) da questa scheda non si puo' sostenere in quanto trattasi di due porte DisplayPort + DVI.
Forse la vera differenza con le porte HDMI sta in questa frase
[A differenza di queste ultime, DisplayPort permette anche di avere a disposizione un link ausiliario specificamente sviluppato per gestire le comunicazioni di altri dispositivi, quali pannello di I/O o microfoni, che possono trovare ampio utilizzo nell'ambito informatico.]
AMD-ATI implementerà il DisplayPort con gli imminenti chipset RS780 e future schede grafiche RV670.
Il futuro e' alle porte.

K7-500
07-12-2007, 18:58
Ehm... ragazzi... era una battuta.
Ormai non si capisce più niente, ci vogliono la palla di cristallo e il mago Oronzo.

Manwë
07-12-2007, 19:08
Fra 5 mesi arriva la Monitor-Port e fra 14 mesi la Video-Port poi le versioni aggiornate tipo 1.2, 2.1, 4.0 ecc...

Okiya
07-12-2007, 20:22
Fra 5 mesi arriva la Monitor-Port e fra 14 mesi la Video-Port poi le versioni aggiornate tipo 1.2, 2.1, 4.0 ecc...

Mi chiedo quanto questo possa effettivamente favorire il mercato....

Rufus86
07-12-2007, 20:32
Su PC l'HDMI e il DisplayPort sono inutili perché non serve a nulla avere sullo stesso cavo anche l'audio. Il DVI è quello che serve sia ora che domani per il PC, dato che l'audio ha canali/cavi a sé stanti ed estranei alla GPU.

fmf67
07-12-2007, 21:35
e se l'audio e' integrato nella scheda madre/scheda video con il display port, ti dispiace avere un cavo in meno?

MiKeLezZ
07-12-2007, 22:25
A me la DisplayPort sembra una grandissima stronzata, lo standard di tutti gli apparecchi audiovisivi attuali e che usciranno nei prossimi (almeno) 5 anni è e sarà solo HDMI, porta che di fatto non è che un DVI+multiSPDIF+Protezione, percui anche come standard informatico il DVI potrebbe andare bene per altri (minimo) 5 anni (fra l'altro c'è gente che sta ancora su VGA: lo stesso DVI prima di diffondersi estesamente sui monitor, seppur digitali, ha necessitato di 3 anni).
Anche sul "Royalty-Free" del DisplayPort avrei da ridire, visto che lo è solo "al momento".
Comunque datosi che sembra manterrà compatibilità DVI/HDMI, non c'è da farci un grosso caso. Al limite avremo questa benedetta porta, ma poi ce ne usciremo in HDMI/DVI (un po' come avere la DVI-I e poi uscire in VGA).
Magari alla fine si tratta solo di uno stratagemma per risparmiare quei 2c di royalty su HDMI.


p.s. Utilissimo avere il cavo audio+video, così possiamo ascoltare l'audio (SPDIF Stereo) dagli altoparlanti della TV (anch'essi Stereo)... che culo!!!
Fino a che non danno la possibilità di uscire in multiSPDIF (ovvero con 8 canali digitali, al posto dei 2 della SPDIF, il che porrà anche fine alle schede Creative) è un po' fine a se stesso...

DarKilleR
07-12-2007, 23:00
ma il Display Port non è gratuito, e open???


Tutti contro il DisplayPort, che forse è l'unica uscita video seria che c'è in circolazione ora come ora...

MisterG
07-12-2007, 23:47
Se la scheda è fatta bene, sia hdmi sia vga si possono tirar fuori dal connettore dvi :p
Il tvout al giorno d'oggi lo si ottiene senza troppe difficolta convertendo una qualunque di queste uscite.

A chi spara contro il display port ricordo che l'hdmi con quel che è costato ha già prodotto, in meno di 5 anni, 6 revisioni (in alcuni casi anche non retrocompatibili tra loro) :rolleyes: Quindi per me il vero standard "non standard", o la vera interfaccia da guardare con sospetto è hdmi. A dirla tutta secondo me si son accorti che come progetto fa acqua da tutte le parti e forse è meglio ripartire da zero con uno standard che meriti davvero considerazione. Sulla carta displayport offre molto ma molto di più di hdmi.

Salut

v1nline
08-12-2007, 00:47
Se la scheda è fatta bene, sia hdmi sia vga si possono tirar fuori dal connettore dvi :p
Il tvout al giorno d'oggi lo si ottiene senza troppe difficolta convertendo una qualunque di queste uscite.

A chi spara contro il display port ricordo che l'hdmi con quel che è costato ha già prodotto, in meno di 5 anni, 6 revisioni (in alcuni casi anche non retrocompatibili tra loro) :rolleyes: Quindi per me il vero standard "non standard", o la vera interfaccia da guardare con sospetto è hdmi. A dirla tutta secondo me si son accorti che come progetto fa acqua da tutte le parti e forse è meglio ripartire da zero con uno standard che meriti davvero considerazione. Sulla carta displayport offre molto ma molto di più di hdmi.

Salut

tempo fa da qualche parte ho letto di qualcuno (+ preciso di così :sofico: ) si aspettava che hdmi si affermasse come standard per tv dvd e prodotti HT, mentre displayport prendesse piede nel mondo pc.

ulk
08-12-2007, 09:45
Evidentemente quello che sta accadendo con Blue ray e HD DVD non ha fatto capire che continuare a buttare sul mercato "tentativi di connessioni differenti" non fa altro che scoraggiare acquirenti.

Si concentrassero più sulla qualità del segnale che sul modo di blindare gli acquirenti sarebbe meglio per tutti.

djseta
08-12-2007, 10:52
Una nuova fascia media da Ati? Ma non hanno appena buttato fuori la serie 3800 che doveva essere la nuova fascia media? Non ci capisco più niente io oppure Ati si è messa a buttare fuori una nuova generazione ogni 2 mesi???

Pancho Villa
08-12-2007, 11:24
A me la DisplayPort sembra una grandissima stronzata, lo standard di tutti gli apparecchi audiovisivi attuali e che usciranno nei prossimi (almeno) 5 anni è e sarà solo HDMI, porta che di fatto non è che un DVI+multiSPDIF+Protezione, percui anche come standard informatico il DVI potrebbe andare bene per altri (minimo) 5 anni (fra l'altro c'è gente che sta ancora su VGA: lo stesso DVI prima di diffondersi estesamente sui monitor, seppur digitali, ha necessitato di 3 anni).
Anche sul "Royalty-Free" del DisplayPort avrei da ridire, visto che lo è solo "al momento".
Comunque datosi che sembra manterrà compatibilità DVI/HDMI, non c'è da farci un grosso caso. Al limite avremo questa benedetta porta, ma poi ce ne usciremo in HDMI/DVI (un po' come avere la DVI-I e poi uscire in VGA).
Magari alla fine si tratta solo di uno stratagemma per risparmiare quei 2c di royalty su HDMI.


p.s. Utilissimo avere il cavo audio+video, così possiamo ascoltare l'audio (SPDIF Stereo) dagli altoparlanti della TV (anch'essi Stereo)... che culo!!!
Fino a che non danno la possibilità di uscire in multiSPDIF (ovvero con 8 canali digitali, al posto dei 2 della SPDIF, il che porrà anche fine alle schede Creative) è un po' fine a se stesso...Quoto. Per l'audio multicanale dei giochi bisogna uscire in analogico e usare una marea di cavi... :rolleyes:

Poi non ho ben capito: il segnale di questa display port è equivalente a DVI e HDMI? In caso affermativo sti cazzi, con un adattatorino passi dall'una all'altra, senza problemi.

zancle
08-12-2007, 12:31
A me la DisplayPort sembra una grandissima stronzata, lo standard di tutti gli apparecchi audiovisivi attuali e che usciranno nei prossimi (almeno) 5 anni è e sarà solo HDMI, porta che di fatto non è che un DVI+multiSPDIF+Protezione, percui anche come standard informatico il DVI potrebbe andare bene per altri (minimo) 5 anni (fra l'altro c'è gente che sta ancora su VGA: lo stesso DVI prima di diffondersi estesamente sui monitor, seppur digitali, ha necessitato di 3 anni).
Anche sul "Royalty-Free" del DisplayPort avrei da ridire, visto che lo è solo "al momento".
Comunque datosi che sembra manterrà compatibilità DVI/HDMI, non c'è da farci un grosso caso. Al limite avremo questa benedetta porta, ma poi ce ne usciremo in HDMI/DVI (un po' come avere la DVI-I e poi uscire in VGA).
Magari alla fine si tratta solo di uno stratagemma per risparmiare quei 2c di royalty su HDMI.


p.s. Utilissimo avere il cavo audio+video, così possiamo ascoltare l'audio (SPDIF Stereo) dagli altoparlanti della TV (anch'essi Stereo)... che culo!!!
Fino a che non danno la possibilità di uscire in multiSPDIF (ovvero con 8 canali digitali, al posto dei 2 della SPDIF, il che porrà anche fine alle schede Creative) è un po' fine a se stesso...


Una delle particolarità delle connessioni DisplayPort è data dalla possibilità di utilizzare, sullo stesso cavo, sia segnali video che audio a 8 canali a 24bit, al pari di quanto disponibile al momento con le connessioni HDMI.

DeMoN3
08-12-2007, 13:19
Scusate l'ignoranza...ma tutti questi schermi/uscite HDMI e DisplayPort che sono gli unici che permettono di vedere contenuti ad alta definizione protetti mi sanno molto di trusted computing..cosa non ha il mio vecchio monitor vga SyncMaster 710N 1280x1024 per non potermi far vedere contenuti in alta definizione?

ulk
08-12-2007, 13:25
Scusate l'ignoranza...ma tutti questi schermi/uscite HDMI e DisplayPort che sono gli unici che permettono di vedere contenuti ad alta definizione protetti mi sanno molto di trusted computing..cosa non ha il mio vecchio monitor vga SyncMaster 710N 1280x1024 per non potermi far vedere contenuti in alta definizione?

Affatto, il trusted computing impedisce di vedere contenuti non protetti da copyrigt, questi sistemi servono per vedere contenuti protetti.

Rufus86
08-12-2007, 13:34
e se l'audio e' integrato nella scheda madre/scheda video con il display port, ti dispiace avere un cavo in meno?

Di GPU che abbiano integrato il chip audio non se ne sono viste.. e comunque sarebbero una soluzione di nicchia. Mentre per l'audio sul monitor stendiamo un velo pietoso.

DeMoN3
08-12-2007, 13:37
Affatto, il trusted computing impedisce di vedere contenuti non protetti da copyrigt, questi sistemi servono per vedere contenuti protetti.

Beh,ma i loro filmati protetti protebbero esser visti solo su schede video+monitor in grado di decrifrare questi contenuti protetti,no?? Quindi "No VGA+Video HDMI(o displayport),NO FILM" ...o sbaglio?

Rufus86
08-12-2007, 13:40
Beh,ma i loro filmati protetti protebbero esser visti solo su schede video+monitor in grado di decrifrare questi contenuti protetti,no?? Quindi "No VGA+Video HDMI(o displayport),NO FILM" ...o sbaglio?

Beh sulle TV il DVI è poco diffuso, dunque l'HDMI e il DisplayPort servono anche per un'ottima qualità video (superiore ovviamente allo SCART/Component e VGA, essendo digitale).

Mentre sui PC non è un problema: seriamente, ma chi guarda i film sul monitor del proprio desktop/notebook!?

ulk
08-12-2007, 13:45
Beh,ma i loro filmati protetti protebbero esser visti solo su schede video+monitor in grado di decrifrare questi contenuti protetti,no?? Quindi "No VGA+Video HDMI(o displayport),NO FILM" ...o sbaglio?

Questo potrebbero farlo, ma è perfettamente lecito. Altra cosa è impedire di vedere contenuti non protetti.

Rufus86
08-12-2007, 13:50
Questo potrebbero farlo, ma è perfettamente lecito. Altra cosa è impedire di vedere contenuti non protetti.

La protezione dell'HDMI, se non erro, qualora riconosca la visione "non protetta" downgrada la resa visiva portandola a bassa risoluzione.

DeMoN3
08-12-2007, 13:54
Beh sulle TV il DVI è poco diffuso, dunque l'HDMI e il DisplayPort servono anche per un'ottima qualità video (superiore ovviamente allo SCART/Component e VGA, essendo digitale).

Mentre sui PC non è un problema: seriamente, ma chi guarda i film sul monitor del proprio desktop/notebook!?
Beh,allora scusa se il mio televisore è un "vecchio" CRT e senza impianto dolby,mentre al pc ho audio 5.1 e schermo lcd...

La protezione dell'HDMI, se non erro, qualora riconosca la visione "non protetta" downgrada la resa visiva portandola a bassa risoluzione.
Quindi i video protetti posso vederli anche senza hardware "apposito",ma guardandolo ad una qualità inferiore?

DeMoN3
08-12-2007, 13:55
E cmq...da far vedere i contenuti protetti solo su hardware specifico a non far vedere contenuti non protetti su tale hardware(appena tale hardware sarà abbastanza diffuso),il passo è breve

Pancho Villa
08-12-2007, 14:53
edit

DeMoN3
08-12-2007, 14:55
Non avete capito quello che intende dire ulk. Se volete vedere il divx scaricato sul mulo l'HDCP (la protezione dei contenuti dell'HDMI) non vi tange, se invece volete vedere il film in blu ray o l'hddvd per guardarlo in HD serve che sorgente e schermo supportino questa protezione.

Guada che io ho capito,sei te che nn hai capito cos'ho detto io:dal poter usufruire della qualità blueray o hddvd solo su hardware specifico al non poter eseguire contenuti non protetti,il passo è breve...secondo me ci manca poco a ciò...magari basterà un aggiornamento firmware appena la tecnologia sarà abbastanza diffusa da colpire molte persone

Pancho Villa
08-12-2007, 14:58
Sì sì, scusa, infatti avevo già editato. Non avevo letto bene i vostri post. :doh:

ulk
08-12-2007, 15:15
La protezione dell'HDMI, se non erro, qualora riconosca la visione "non protetta" downgrada la resa visiva portandola a bassa risoluzione.

Vah beh dai questo è puro trusted computing.

Exico
08-12-2007, 15:27
Video al video e audio all'audio
A che serve mischiare tutto nello stesso cavo?
La gpu deve fare cose da gpu non anche lavorarsi l'audio quello lo deve lasciar fare alla scheda audio
Ma dove andremo a finire?
Fra poco ci sarà un solo componente che gestirà audio, video e calcolo (cpu) :sofico: :doh:

DreamsKnight
08-12-2007, 16:08
Su PC l'HDMI e il DisplayPort sono inutili perché non serve a nulla avere sullo stesso cavo anche l'audio. Il DVI è quello che serve sia ora che domani per il PC, dato che l'audio ha canali/cavi a sé stanti ed estranei alla GPU.

nulla ti vieta di usare hdmi + coassiale per l'audio partendo la pc, ma se hai un cavo solo non vedo perchè non sfruttarlo.

il tuo è un problema di percezione. automaticamente associ film su pc a seduti alal scrivania con il monitor e le casse del pc... ma mica è così figlio mio.

Video al video e audio all'audio
A che serve mischiare tutto nello stesso cavo?
La gpu deve fare cose da gpu non anche lavorarsi l'audio quello lo deve lasciar fare alla scheda audio
Ma dove andremo a finire?
Fra poco ci sarà un solo componente che gestirà audio, video e calcolo (cpu) :sofico: :doh:

certo. a me fa assolutamente schifo far uscire dal pc un solo cavo audio video per entrambi in alta definizione.

è assolutamente preferibile il cavo vga da un cm di diametro e 4 di presa, più 3 cavi per la gestione dell'audio. cavi di colore diverso.

ma che stai dicendo? senza considerare che le persone vogliono funzionalità e semplicità, e un cavo contro 4 lo è senza ombra di dubbio.

p.s. Utilissimo avere il cavo audio+video, così possiamo ascoltare l'audio (SPDIF Stereo) dagli altoparlanti della TV (anch'essi Stereo)... che culo!!!
Fino a che non danno la possibilità di uscire in multiSPDIF (ovvero con 8 canali digitali, al posto dei 2 della SPDIF, il che porrà anche fine alle schede Creative) è un po' fine a se stesso...

a me lo spdif mi gestisce 5.1 canali in tutta tranquillità con e senza creative.

cmq dall'uscita hdmi del pc esci con un solo cavo hdmi che porta audio e video, entri nell'impianto dolby e dal dolby riesci e rientri nella tv.

un cavo. audio multicanale. video alta definizione. un cavo.

Di GPU che abbiano integrato il chip audio non se ne sono viste.. e comunque sarebbero una soluzione di nicchia. Mentre per l'audio sul monitor stendiamo un velo pietoso.

mai sentito parlare della serie ATi HD2x00 ??? è un anno che sono in commercio?

Pancho Villa
08-12-2007, 16:11
a me lo spdif mi gestisce 5.1 canali in tutta tranquillità con e senza creative.

cmq dall'uscita hdmi del pc esci con un solo cavo hdmi che porta audio e video, entri nell'impianto dolby e dal dolby riesci e rientri nella tv.

un cavo. audio multicanale. video alta definizione. un cavo.Se esci in dolby o in dts sì, ma in PCM puoi uscire solo in stereo.

MiKeLezZ
08-12-2007, 16:14
a me lo spdif mi gestisce 5.1 canali in tutta tranquillità con e senza creative. In DD o DTS formato compresso (lossy).
cmq dall'uscita hdmi del pc esci con un solo cavo hdmi che porta audio e video, entri nell'impianto dolby e dal dolby riesci e rientri nella tv.

un cavo. audio multicanale. video alta definizione. un cavo.In pratica porti un cavo da PC al sinto, e poi un altro cavo dal sinto alla TV.

Altrimenti dovresti portare un cavo al sinto (SPDIF) e un cavo alla TV (DVI).

Non solo non c'è risparmio, ma la prima è anche teoricamente (teoricamente) inferiore in qualità, dato che il flusso video passa attraverso un nodo (il sinto).

DreamsKnight
08-12-2007, 16:33
si una perdità di qualità non percepibile dall'occhio umano. :asd:

si chiama pelo nell'uovo.

se vedete un film lo vedete in dd o dts (o stereo, ma nons ta nel nostro discorso) quindi dove sta il problema dello spdif?

Pancho Villa
08-12-2007, 17:12
si una perdità di qualità non percepibile dall'occhio umano. :asd:

si chiama pelo nell'uovo.

se vedete un film lo vedete in dd o dts (o stereo, ma nons ta nel nostro discorso) quindi dove sta il problema dello spdif?Nei giochi...

MiKeLezZ
08-12-2007, 17:23
si una perdità di qualità non percepibile dall'occhio umano. :asd:

si chiama pelo nell'uovo.

se vedete un film lo vedete in dd o dts (o stereo, ma nons ta nel nostro discorso) quindi dove sta il problema dello spdif?DTS o DD è come ascoltare un MP3 a 320kBps (in realtà un po' di più, ma in ogni caso non certo il massimo), e poi, come ha detto Pancho, il problema maggiore risiede nei giochi...

Mercuri0
09-12-2007, 00:57
Ho trovato un post interessante su un forum che fissa alcuni punti, lo quoto e neretto per gli interessati:
It is royalty-free, but it's not a version of HDMI. It's most certainly incorrect to say VESA "just changed the physical connector a little and swap a few wires to different places" (that's like saying Ethernet just took phone lines and changed the RJ-11 connector and swapped a few wires). Unlike DVI and HDMI, DisplayPort uses a packet protocol; it does not use TMDS. This has a lot of implications:
- DisplayPort (10.8 Gbit/s) offers more bandwidth than HDMI 1.3 (8.16Gbit/s) or dual-link DVI (7.4 Gbit/s); in practical terms that doesn't matter much, at least at the moment, since they can all reach 2560×1600 at 60Hz (and HDMI and DisplayPort can do more than 8bpc at that resolution, aka "Deep Color"); but it's incorrect to say they are the same. DisplayPort also supports audio, like HDMI (and unlike DVI), and two-way data (and if you think that's useless, just look at the iPhone).
- DisplayPort can and will replace the LVDS connection within notebooks. This eliminates a wide wire path (with cost and EMI implications) and a bunch of additional electronics for TDMS signalling, scaling, etc, allowing the GPU to drive the display directly. This lowers costs in notebook designs so we'll see mobile chipsets and GPUs jump on it immediately (Intel is a big DisplayPort supporter, as are Dell, HP, and Lenovo).
- But we may also see cheaper "direct drive" monitors appear that eliminate that circuitry as well, with everything handled by the GPU. Such monitors will only function with DisplayPort, not any of the legacy connectors, so there are obvious consumer education issues. The results could be interesting, however: http://www.gearlog.com/2007/05/dell_shows_off_superslim_displ.php
- We may see LCD TVs use DisplayPort internally, just to get rid of all the wires required for LVDS. They'll still need all the other electronics to support HDMI, but if they've got DisplayPort inside they'll probably add an external connector for it. Likewise notebooks will offer DisplayPort (the smaller connector makes that easier too). That means DisplayPort won't suffer as much of a chicken-and-egg problem as some connector standards in the past.
- Because the IP is free the GPU vendors can (and are starting to) build the circuitry right into the GPU, no separate Silicon Image chip required. This lowers board vendors' costs and also allows the GPUs to add new features (eg AC-coupling) as soon as they're in the spec -- they don't have to wait on SI.
- Smaller connectors and ports are good for external monitor ports on notebooks (other than Macs and some other niche models, how many do you see with HDMI or DVI out?) but they also allow for as many as 4 ports on a single card for up to quad-monitor goodness. And, as others have said, you can daisy-chain as well.
Oltre a le cose già evidenziate dalla news
DTS o DD è come ascoltare un MP3 a 320kBps (in realtà un po' di più, ma in ogni caso non certo il massimo)
Vero, saranno almeno 200kbs sopra il massimo :D
http://www.hwupgrade.it/forum/showpost.php?p=19996878&postcount=85

homoinformatico
09-12-2007, 10:06
io resto affezionato al mio philips 22' crt. I computer vanno e vengono, ma lui NO

Umbo666™
09-12-2007, 11:18
Commento # 8 di: Speedy L\'originale pubblicato il 07 Dicembre 2007, 18:31

Dov'è finito il vecchio, ma valido Tv-Out?

La mia Tv non Hdmi con cosa l'attacco?

dovrebbero esistere in commercio degli adattatori

Queste nuove porte sembrano un pretesto per far tornare la ATI sulla cresta dell'onda perchè non riescono ad euguagliare la potenza delle schede Nvidia.

DreamsKnight
09-12-2007, 14:23
DTS o DD è come ascoltare un MP3 a 320kBps (in realtà un po' di più, ma in ogni caso non certo il massimo), e poi, come ha detto Pancho, il problema maggiore risiede nei giochi...

lo so perfettamente... però come hai detto te, chi guarda un film alla scrivania?

io sono 5 anni che ho
monitor lcd in dvi
monitor crt in vga
impianto 5.1 analogico.
in questa maniera gioco con l'impianto.

dietro alla scrivania ho il divano con
videoproiettore (prima era tv) in s video
altro impianto 5.1 digitale collegato con l'ottico (o spdif è identico)

gioco, vedo film, non ho problemi, uso il pc (uno solo) per tutto.

esiste un impianto creative digitale (o meglio esisteva) che ovviava a tutti i problemi.

aveva:
modalità stereo (e che potevi snaturare i dolby pro logic)
modalità DD o DTS
modalità EAX (andava in nmulticanale il videogioco con l'out digitale)

insomma, il mio concetto è che studiando un pò sulle cose si trovano soluzioni a tutto.

street
09-12-2007, 21:19
esiste un impianto creative digitale (o meglio esisteva) che ovviava a tutti i problemi.

aveva:
modalità stereo (e che potevi snaturare i dolby pro logic)
modalità DD o DTS
modalità EAX (andava in nmulticanale il videogioco con l'out digitale)

insomma, il mio concetto è che studiando un pò sulle cose si trovano soluzioni a tutto.

esistono schede non creative che da anni (ormai si può dire :asd: ) lo permettono senza dover uscire dalla scheda audio in analogico, passare al decoder analogico ->digitale, portare quindi il segnale all' amplificatore che lo ripassa digitale->analogico ;)

lo_straniero
10-12-2007, 13:25
come dire :D

Porta a Porta di vespa

gsorrentino
10-12-2007, 15:13
... il problema maggiore risiede nei giochi...

Ed è un problema del software. Lo standard spdif (come HDMI ed altri) prevedono tranquillamente il PCM. A volte il problema è del gioco, a volte dei driver della scheda sonora. Ma comunque è sempre un problema del SW.

gsorrentino
10-12-2007, 15:21
In DD o DTS formato compresso (lossy).
In pratica porti un cavo da PC al sinto, e poi un altro cavo dal sinto alla TV.

Altrimenti dovresti portare un cavo al sinto (SPDIF) e un cavo alla TV (DVI).

Non solo non c'è risparmio, ma la prima è anche teoricamente (teoricamente) inferiore in qualità, dato che il flusso video passa attraverso un nodo (il sinto).

Si vede che non hai un impianto HT... Attualmente si è costretti a portare un cavo video da ogni sorgente al TV e uno audio (analogico o digitale) all'ampli. Questo sistema, elimina un nodo come dici tu, ma introduce una cosa che si chiama ritardo e che spesso mette fuori sinc video e audio.
Inoltre, se sul TV hai poche prese devi prendere switch aggiuntivi, etc.

Se invece si porta tutto all'ampli e da questo al TV, elimini il problema del sinc e risolvi quello dello switch, ma se l'ampli non scala il segnale, ti trovi a dover portare un cavo per ogni tipo di segnale. Anzi spesso sei costretto a portarne diversi. Ad esempio il buon senso direbbe che dal dvd all'ampli c'è un solo cavo ottico. Invece, se il lettore non converte i formati audio (divx ad esempio), scopri che devi portare anche quello analogico. E così via.

Se lo standard prendesse piede, ci sarebbe solo comunicazione digitale, quindi un solo cavo per dispositivo, meno problemi, etc.

Un'ultima cosa, il nodo in più su un percorso digitale difficilmente crea perdita di qualità...

gsorrentino
10-12-2007, 15:38
Scusate l'ignoranza...ma tutti questi schermi/uscite HDMI e DisplayPort che sono gli unici che permettono di vedere contenuti ad alta definizione protetti mi sanno molto di trusted computing..cosa non ha il mio vecchio monitor vga SyncMaster 710N 1280x1024 per non potermi far vedere contenuti in alta definizione?

La risoluzione ad esempio?
L'impossibilità di vedere in analogico contenuti protetti (se non riscalati a bassa definizione)?
Il fatto che la presa VGA su di un monitor lcd prevede un passaggio digitale-->analogico-->digitale che difficilmente mantiene inalterata la qualità?

street
10-12-2007, 15:59
Ed è un problema del software. Lo standard spdif (come HDMI ed altri) prevedono tranquillamente il PCM. A volte il problema è del gioco, a volte dei driver della scheda sonora. Ma comunque è sempre un problema del SW.

dell' hw, semmai ;)

gsorrentino
10-12-2007, 16:27
dell' hw, semmai ;)

No, l'HW è già predisposto. Tutte le schede sonore dalle medie in su potrebbero tranquillamente farlo.

street
10-12-2007, 16:44
No, l'HW è già predisposto. Tutte le schede sonore dalle medie in su potrebbero tranquillamente farlo.

no, stai prendendo una cantonata. tutte le schede sonore sono 5.1 ma non fanno encoding dolby o dts, solo decoding. Il che vuol dire che se esci via spdif hai solo lo stereo se la fonte é wave (come i giochi). e' 5.1 se esci già in dolby o dts, e lo fai come pass-trough (e lo fanno tutte)

gsorrentino
10-12-2007, 17:22
no, stai prendendo una cantonata. tutte le schede sonore sono 5.1 ma non fanno encoding dolby o dts, solo decoding. Il che vuol dire che se esci via spdif hai solo lo stereo se la fonte é wave (come i giochi). e' 5.1 se esci già in dolby o dts, e lo fai come pass-trough (e lo fanno tutte)

Nel caso di un film lo stream DD 5.1 viene estratto dal flusso di dati in arrivo dal lettore DVD via SATA o PATA. Tale flusso è separato dal SW di lettura ed inviato attraverso lo spdif.

L'encoding in DD 5.1 in tempo reale è affare da chip dedicati o da SW.
Ma nei giochi, dove si parte da campioni digitali, l'elaborazione SW potrebbe tranquillamente inviare i dati mixati e formattati in DD 5.1. Così viene fatto nelle console. Sparirebbe così la SK audio (che non sarebbe proprio un male).

Il problema sono la potenza di calcolo (ma fino a un certo punto secondo me) e i diritti da pagare su ogni gioco per il DD (o DTS).

street
10-12-2007, 17:36
Nel caso di un film lo stream DD 5.1 viene estratto dal flusso di dati in arrivo dal lettore DVD via SATA o PATA. Tale flusso è separato dal SW di lettura ed inviato attraverso lo spdif.

L'encoding in DD 5.1 in tempo reale è affare da chip dedicati o da SW.
Ma nei giochi, dove si parte da campioni digitali, l'elaborazione SW potrebbe tranquillamente inviare i dati mixati e formattati in DD 5.1. Così viene fatto nelle console. Sparirebbe così la SK audio (che non sarebbe proprio un male).

Il problema sono la potenza di calcolo (ma fino a un certo punto secondo me) e i diritti da pagare su ogni gioco per il DD (o DTS).

che c' entra... se é per questo anche la parte grafica dei giochi può essere elaborata in software invece che da chip dedicati in hw...
appunto, ci sono chip dedicati all' encoding dd(live) o dts, e le schede video non é che costino di più di quelle senza tali chip ;)

gsorrentino
10-12-2007, 17:43
che c' entra... se é per questo anche la parte grafica dei giochi può essere elaborata in software invece che da chip dedicati in hw...
appunto, ci sono chip dedicati all' encoding dd(live) o dts, e le schede video non é che costino di più di quelle senza tali chip ;)

Si, ma mentre per la parte video il non utilizzare un chip dedicato rende impossibile il giocare, per la parte audio con i pentium 4 erano già stati fatti degli esperimenti che valutavano la fattibilità della cosa. Adesso abbiamo CPU molto più potenti (e sgravate della parte video) di allora, quindi...

E se vogliamo, il PCM multicanale non richiede codifica ed è accettato da tantissimi ampli HT.

Diciamo che non interessa a nessuno, perchè sicuramente una scheda audio analogica con 6+1 canali e una soluzione di altoparlanti reative costa meno...

MiKeLezZ
10-12-2007, 17:45
che c' entra... se é per questo anche la parte grafica dei giochi può essere elaborata in software invece che da chip dedicati in hw...
appunto, ci sono chip dedicati all' encoding dd(live) o dts, e le schede video non é che costino di più di quelle senza tali chip ;)Di solito i "chip dedicati all'encoding DD/DTS" fanno tutto via software, percui è più una questione di royalties e voglia di fare

street
10-12-2007, 19:18
Di solito i "chip dedicati all'encoding DD/DTS" fanno tutto via software, percui è più una questione di royalties e voglia di fare

non ho capito. se son dedicati, lo fanno via hw. Altrimenti é come se non esistessero.

MiKeLezZ
10-12-2007, 19:26
Altrimenti é come se non esistessero.Infatti dubito esistano (forse il SoundStorm NVIDIA? Le ultime CMEDIA, per esempio, funzionano comunque in software). L'encoding DD\DTS è un processo di cui si occupa la CPU...

street
10-12-2007, 20:08
Infatti dubito esistano (forse il SoundStorm NVIDIA? Le ultime CMEDIA, per esempio, funzionano comunque in software). L'encoding DD\DTS è un processo di cui si occupa la CPU...

ma le fonti?

MiKeLezZ
10-12-2007, 20:14
ma le fonti?
de che?

DeMoN3
10-12-2007, 20:30
Di quello che dici...

Pancho Villa
10-12-2007, 20:31
Ed è un problema del software. Lo standard spdif (come HDMI ed altri) prevedono tranquillamente il PCM. A volte il problema è del gioco, a volte dei driver della scheda sonora. Ma comunque è sempre un problema del SW.No, l'HW è già predisposto. Tutte le schede sonore dalle medie in su potrebbero tranquillamente farlo.Secondo me non hai capito che la connessione SPDIF elettrica (connettore RCA) o ottica (il Toslink) può veicolare sì un segnale PCM, ma solo stereo.
Ovvio che le schede audio sono in grado di generare un output PCM multicanale, d'altra parte il gioco viene elaborato in tempo reale in formato non compresso, se mai DOPO può essere codificato, ma se non c'è la connessione che supporti un output PCM multicanale non c'è molto da fare; o converti in analogico e esci con tanti cavi quanti sono i canali + tutti gli adattatori minijack => stereo RCA (nel caso di connessione a un ampli ht che usa connessioni RCA, appunto) con evidente scomodo, oppure ricodifichi in DD o DTS mediante un chip dedicato oppure via software (per esempio con AC3 filter). Peccato che nei videogiochi non abbia alcun senso ricodificare il flusso audio/video; è come se codificassimo l'uscita della VGA in DivX (:eek: :Puke: ), perdendo qualità, sprecando potenza di calcolo e sensa alcun vantaggio; nei film l'audio e il video devono essere codificati in quanto si tratta di software preregistrato immagazzinato in un supporto a capacità limitata, i VG invece vengono elaborati in tempo reale e non ha alcun senso ricodificarne lo stream, tutt'altro (per quanto detto sopra).
Ecco perché a me piacerebbe molto una scheda video che supporti l'audio su HDMI prendendo il flusso PCM multichannel dalla scheda audio e semplicemente veicolandolo sul cavo HDMI (un funzionamento del tutto trasparente), ma purtroppo è un sogno che rimarrà inesaudito. Devo sorbirmi sto schifo di SPDIF che va solo in stereo. :doh: :muro:

MiKeLezZ
10-12-2007, 22:59
Di quello che dici...Se attivi l'encoding DD o DTS le prestazioni calano del 10%
Se non è CPU-based non so proprio che sia

Pancho Villa
10-12-2007, 23:00
Se attivi l'encoding DD o DTS le prestazioni calano del 10%Anche con un multi core?

MiKeLezZ
10-12-2007, 23:33
Anche con un multi core?Da questa recensione con un multicore perdi sul 2%-5%
http://www.overclockers.co.nz/ocnz/review.php?id=06misc0audio000bluegearenspirer0404

street
11-12-2007, 08:41
Se attivi l'encoding DD o DTS le prestazioni calano del 10%
Se non è CPU-based non so proprio che sia

se passi da dx 9 a dx10 le prestazioni calano del 50%. Se da dx9 passi a dx8 lo stesso Vuol dire che i chip dx10 sono software-based o che hanno delle features che rallentano il sistema?

http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=681&p=5

qua sembra vada addirittura molto meglio della creative (nessun impatto sulla cpu) ma non capisco se é stata fatta con ddlive.
In caso lo fosse, assumendo un 5% in più sulla cpu, avremmo pari valori. Allora, queste scehde sono software-based senza hw dedicato (da come la metti), mentre le creative sono hw based a prescindere (anche se il carico sulla cpu é quello). Ma non ti fanno avere uno stream dolby da audio "wave".

Una cosa, poi, se fosse esclusivamente software, com'é che non si vedono a giro plugin che facciano dolby encoding realtime applicabili ai giochi?

MiKeLezZ
11-12-2007, 11:39
se passi da dx 9 a dx10 le prestazioni calano del 50%. Se da dx9 passi a dx8 lo stesso Vuol dire che i chip dx10 sono software-based o che hanno delle features che rallentano il sistema?

http://www.dinoxpc.com/Tests/articoli/articolo/index.asp?id=681&p=5

qua sembra vada addirittura molto meglio della creative (nessun impatto sulla cpu) ma non capisco se é stata fatta con ddlive.
In caso lo fosse, assumendo un 5% in più sulla cpu, avremmo pari valori. Allora, queste scehde sono software-based senza hw dedicato (da come la metti), mentre le creative sono hw based a prescindere (anche se il carico sulla cpu é quello). Ma non ti fanno avere uno stream dolby da audio "wave".

Una cosa, poi, se fosse esclusivamente software, com'é che non si vedono a giro plugin che facciano dolby encoding realtime applicabili ai giochi?
Tipo questo?
http://www.driverheaven.net/general-discussion/90887-redocnexk-released-realtime-5-1-ac3-encoder.html

p.s. Pure le Creative fanno un de-coding DD\DTS prettamente software, figuriamoci quindi se le altre schede facciano l' en-coding via hardware...

street
11-12-2007, 12:17
Tipo questo?
http://www.driverheaven.net/general-discussion/90887-redocnexk-released-realtime-5-1-ac3-encoder.html


l' ho letto, l' avevo visto, ma non ho trovato bench al riguardo, che dicano quanto sia la differenza prestazionale tra questo procedimento (a parte uno che misura la differenza con l' occupazione dal task manager) e passare da una scheda con ddlive integrato. Tu ne hai?


p.s. Pure le Creative fanno un de-coding DD\DTS prettamente software, figuriamoci quindi se le altre schede facciano l' en-coding via hardware...

ma che vuol dire questo? Creative se é per quello ha un decoder esterno ddlive. Quindi, é prettamente software anche quello? Io boh, non capisco come fai a mischiare pere con mele.

Se mi dici:
un pc con una x-fi, con i driver kx, con asio abilitato, passando per i redocnexk fa encoding dd realtime, e in analogico fa tot fps ad hl2, in digitale tot2, mentre una scheda con ddlive fa tot fps con ddlive abilitato, tot senza, allora é un discorso sensato che permette di fare valutazioni e confronti.

Se continui a dirmi "la perdita di prestazioni é del 10% - no del 2% - no aspetta, lo fanno sw solo perché la creative fa sw il decoding" il discorso si regge poco in piedi - senza considerare che sw o no, una ti permette delle cose, l' altra no.

Oltretutto, per farti vedere che encoding e decoding non sono la stessa cosa, io ho fatto dei montaggi in RT con filmati dv portati sia in dv che in mpeg-2.
Ora, lavoro in RT, vedo i filmati in RT, passare da uno standard all' altro ci mette anche 10 volte il tempo che ci mette a leggerli. Forse, l' encoding non fa gli stessi calcoli del decoding?

MiKeLezZ
11-12-2007, 12:42
Non capisco perchè la duri; i bench te li ho dati ieri alle 00:33

Pancho Villa
11-12-2007, 13:04
Ma tanto la CPU con i giochi di oggi non conta 'na cippa (alle alte risoluzioni e usando i filtri). Poi con un multi core...

DeMoN3
11-12-2007, 13:24
beh,aspetta...discorsi di questo genere (ho grandi risorse,posso anche "sprecarle")porta a programmi e giochi mal ottimizzati(o ottimizzati per nulla) e spreco di risorse...che dovranno quindi esser ulteriormente aumentate e così via...i multi core ci sono,ma è bene che siano sfruttati come si deve...

street
11-12-2007, 14:10
Non capisco perchè la duri; i bench te li ho dati ieri alle 00:33

bench che dicono che passando da ddlive a noddlive ti fan perdere il 3%, e con quelli stai argomentando che la soluzione é solo software. Poi tiri fuori i driver kxencoder che lo fanno sw e ti chiedo: "ecco, questa potrebbe essere una questione. Quanto é l' impatto prestazionale di questi driver?" e tu rispondi: "te l' ho detto alle 00.33" :mbe:

Ora, ti ci metto anche i miei (fatti oggi al volo su coh:of, che ha un bench interno).
Ti dico subito che confermano il 4% di perdita (e io ripeto: per questo, un 4% di perdita, tu affermi che senza ombra di dubbio non esiste un encoder hardware?)

coh 5.1 ddlive on
http://img113.imageshack.us/img113/6075/cohdd51lr4.th.jpg (http://img113.imageshack.us/my.php?image=cohdd51lr4.jpg)

coh 5.1 ddlive off
http://img529.imageshack.us/img529/3126/cohddoff51vu7.th.jpg (http://img529.imageshack.us/my.php?image=cohddoff51vu7.jpg)

coh stereo ddlive on
http://img151.imageshack.us/img151/7706/cohddonwc9.th.jpg (http://img151.imageshack.us/my.php?image=cohddonwc9.jpg)

coh stereo ddlive off
http://img164.imageshack.us/img164/319/cohddoffzo1.th.jpg (http://img164.imageshack.us/my.php?image=cohddoffzo1.jpg)

Ora, se prendiamo i valori medi,
siamo a:

ddlive on vs off: -4%
5.1 vs stereo: -4%

Tra stereo e 5.1 capisco (e immagino capisca anche tu) che computazionalmente c'é un impegno del processore maggiore. Perché non ci dovrebbe essere un impegno maggiore nel fare l' encoding DD? Anzi, c'é la stessa differenza in termini di impatto prestazionale fra stereo->5.1 e ddon->ddoff.

ps: sui frame rate minimi non so darti una ragione, nel momento in cui addirittura stereo é più lento del 5.1.
Per il solito motivo ho tolto i frame massimi, dove la differenza era dell' 1%.

gsorrentino
11-12-2007, 15:00
Secondo me non hai capito che la connessione SPDIF elettrica (connettore RCA) o ottica (il Toslink) può veicolare sì un segnale PCM, ma solo stereo.


Lo standard prevede il PCM multicanale...Nelle schede audio non è implementato, ma è implementato l'invio di segnali di dati digitali alla porta, quindi se anzichè prendere il DD e inviarlo in binario attraverso lo spdif, mi calcolo un PCM multicanale e lo invio in binario attraverso lo spdif....
Certo, devo avere un ampli che lo interpreti, ma tutti quelli al di sopra di un certo livello (non le casse creative chiaramente) non hanno problemi...

Ecco perché a me piacerebbe molto una scheda video che supporti l'audio su HDMI prendendo il flusso PCM multichannel dalla scheda audio e semplicemente veicolandolo sul cavo HDMI (un funzionamento del tutto trasparente), ma purtroppo è un sogno che rimarrà inesaudito. Devo sorbirmi sto schifo di SPDIF che va solo in stereo. :doh: :muro:

Da SW non è un problema inviare il PCM attraverso il cavo HDMI. Non deve pensarci per forza la scheda video.

MiKeLezZ
11-12-2007, 19:55
bench che dicono che passando da ddlive a noddlive ti fan perdere il 3%, e con quelli stai argomentando che la soluzione é solo software. Poi tiri fuori i driver kxencoder che lo fanno sw e ti chiedo: "ecco, questa potrebbe essere una questione. Quanto é l' impatto prestazionale di questi driver?" e tu rispondi: "te l' ho detto alle 00.33" :mbe:

Ora, ti ci metto anche i miei (fatti oggi al volo su coh:of, che ha un bench interno).
Ti dico subito che confermano il 4% di perdita (e io ripeto: per questo, un 4% di perdita, tu affermi che senza ombra di dubbio non esiste un encoder hardware?)

Tra stereo e 5.1 capisco (e immagino capisca anche tu) che computazionalmente c'é un impegno del processore maggiore. Perché non ci dovrebbe essere un impegno maggiore nel fare l' encoding DD? Anzi, c'é la stessa differenza in termini di impatto prestazionale fra stereo->5.1 e ddon->ddoff.

ps: sui frame rate minimi non so darti una ragione, nel momento in cui addirittura stereo é più lento del 5.1.
Per il solito motivo ho tolto i frame massimi, dove la differenza era dell' 1%.Se vedi i benchmark sono stati fatti a 640x480 per togliere dall'equazione la potenza della scheda video; chiaro in una scena particolarmente complessa è possibile che il fattore più limitante sia la scheda grafica piuttosto che la potenza del processore, e questo è il motivo percui ci sono casi in cui i valori di differenza sono trascurabili (frame minimi). In altri invece si potrebbero avere scene in cui non sia richiesto un utilizzo gravoso della CPU, che può quindi destinare più cicli al processo audio (frame massimi).

Comunque il discorso è questo:
- con la scheda DD/DTS cazzi-e-mazzi l'attivazione di tale modalità succhia circa un 4% (vedi bench da me postati)
- con un software, l'attivazione di tale modalità succhia circa un 4% (vedi i tuoi bench)

Questa mi sembra una forte riprova del fatto che tale scheda non dia alcuna accelerazione hardware, visto che la gravosità del processo è pari a quella che si ha usando una soluzione solo software.

Non capisco i tuoi commenti finali in quanto vedo che dd2.1 > dd5.1 > 5.1 > 2.1

street
11-12-2007, 21:02
Se vedi i benchmark sono stati fatti a 640x480 per togliere dall'equazione la potenza della scheda video; chiaro in una scena particolarmente complessa è possibile che il fattore più limitante sia la scheda grafica piuttosto che la potenza del processore, e questo è il motivo percui ci sono casi in cui i valori di differenza sono trascurabili (frame minimi). In altri invece si potrebbero avere scene in cui non sia richiesto un utilizzo gravoso della CPU, che può quindi destinare più cicli al processo audio (frame massimi).

Comunque il discorso è questo:
- con la scheda DD/DTS cazzi-e-mazzi l'attivazione di tale modalità succhia circa un 4% (vedi bench da me postati)
- con un software, l'attivazione di tale modalità succhia circa un 4% (vedi i tuoi bench)

Questa mi sembra una forte riprova del fatto che tale scheda non dia alcuna accelerazione hardware, visto che la gravosità del processo è pari a quella che si ha usando una soluzione solo software.

Non capisco i tuoi commenti finali in quanto vedo che dd2.1 > dd5.1 > 5.1 > 2.1

guarda che non é con l' attivazione di un software che si ha il 4%. Se non l' hai ancora capito, quelli sono bench con ddlive attivato oppure no, il che vuol dire che una scheda che fa ddlive la ho ;)

ora, torniamo a bomba: in utilizzo reale, senza tante seghe mentali, prende il 4% degli fps, cioé circa 1,5 fps in questione. Mi spieghi, sinceramente, quale é il problema a questo punto?
E i bench, te lo riscrivo per vedere se lo capisci, da me postati sono di una scheda con ddlive, la x-mystique, non con il "software". E l' avevo scritto ;)

MiKeLezZ
11-12-2007, 21:31
pensavo avessi usato il sw redocneXk