View Full Version : Matrox Parhelia 256 Mbytes in commercio
Redazione di Hardware Upg
27-11-2002, 14:45
Link alla notizia: http://news.hwupgrade.it/8698.html
Disponibile in commercio la nuova versione di scheda video Matrox Parhelia, con dotazione di memoria video di ben 256 Mbytes
Click sul link per visualizzare la notizia.
ridicola....
è il fanalino di coda delle schede DX9 compatibili
ridicola....
è il fanalino di coda delle schede DX9 compatibili
Dipende da quello ke ci fai... se leggi per bene, c'è scritto "IN AMBITO PROFESSIONALE" ke non vuol dire "GIOCANDO AD UT2003"...
Lud von Pipper
27-11-2002, 14:57
No, non è neppure full DX9.
Peccato per il prezzo e per le prestazioni: se costasse meno e andasse un pò di più non ci sarebbe da lamentarsi.
PS: esiste qualche bench in OGL Professionale?
LvP
magomerlinopaolo
27-11-2002, 14:59
si ma questi "interessanti benifici" voglio vedere quando e dove si trovano ;) xchè anche nei programmi professionali è una cosa tutta da dimostrare...
anche in ambito professionale c'e' di meglio ....
Qual eambito professionale!?!??!?!
Il CAD!? non credo proprio...e' peggio delle Ati!!!!
Il fotoritocco?! tutti i Mac nuovi usano le geforce e prima gli Ati....... non vedo spunti per ambito profassionale .....
...la recensione su CG ,computer Gazzette, sulla Matrox?!?! beh hanno detto di lasciare stare.
ZioJimmy
27-11-2002, 15:05
Che ne dite...paragonabile ad una quadro4 750 xgl? o ad una wildcat vp 870? o ad un fire gl 8800?...secondo me è questo il discorso da fare!!...si dovrebbe testare per vedere bene dove è forte, ma non con ut2003...un bel 3dmax e programmi simili dovrebbero rendere bene l'idea.
ZioJimmy
sidewinder
27-11-2002, 15:39
be se si deve usare 3 monitor in contemporanea con applicazioni 3d CAD avere tanta memoria aiuta, anche se come prestazioni converrebbe una scheda dedicata
WhiteParty
27-11-2002, 15:55
E' possibile mettere a confronto in una prossima recensione la Parhelia con una ATI Fire e/o Quadro4 ?
dottorpalmito
27-11-2002, 16:00
come hardware ci siamo...forse la Parhelia avrebbe bisogno di migliori driver che la pompino...certo che 3 monitor non sono uno scherzo...facci editing video e poi mi dici...su un monitor la time line, sull'altro gli strumenti e sulla tele o terzo monitor l'anteprima...pregiato!
3 monitor bisogna averli pero !! e nei giochi se valutiamo il rapporto prezzo/prestazioni è una presa in giro ! mi spiace per matrox doveva tirarla fuori un anno prima !
L'ambito professionale di questa scheda è fondamentalmente l'utilizzo dei 3 monitor contemporaneamente. Il problema (secondo me) è che non ha i driver OPENGL ottimizzati. Nonostante i nuovi driver in ambito opengl, rimane sempre dietro tutte le atre concorrenti. A questo punto mi chiedo quale sia l'ambito in cui è consigliato usarla.
MORALE: Io la consiglierei SOLO a chi deve usare 3 monitor....
ma se poi devono farci grafica professionale....cambierei consiglio.
bye by CNC.
P.S:Se costasse 250€ penso che me la comprerei. L'utilità di avere 3 monitor (almeno per me) c'è.... ma il prezzo attuale ne impedisce l'acquisto.
Dox leggi tutto prima di scrivere...
l'AMBITO PROFESSIONALE non comprende i giochi.
Ma fatemi il piacere
Allroa quando hanno presentato la scheda urlavano a tutto volume e spingevano molto sul fatto del SURROUND GAMING con 3 monitor, quindi vuol dire ceh la scheda è fatta per giocare.
Solo che si sono accorti che anche con 1 monitor solo da gestire la Pharelia era una schifezza! Figuriamoci poi con 3 monitor...lasciamo perdere.
Allora adesso stravolgono il target della scheda e dicono che è per ambito PROFESSIONALE.
Ma fatemi il piacere...provate a metterla a confronto con una ben piu economica ATI 8800 oppure con altre sottospecie di NVIDIA...
Terrei anceh a precisare che ormai i giochi sono il banco di prova ideale per le schede grafiche perche succhiano tutto sino al midollo, quindi se una scheda grafica è una bomba nei giochi, allora lo sarà anche nelle applicazioni professionali. Poi alla fine è solo una questione di ottimizzare i driver per questa o per quell'altra applicazione, o per questo o quell'altro gioco. Vedi NVIDIA QUADRO che condivide il chip con ottime schede graficeh votate al Gaming.
La Pharelia è il FANALINO DI CODA in tutto, sia nel gioco che nel professional, sia con 128 e ancor di piu con 256 mega di DDR
wonder in parte sono daccordo con te...
ma attento nel dire che I GIOcHI SONO IL BANCO DI PROVA IDEALE!!!!!!!!!!!
qui ti sbagli di grosso....
devi dividere... purtroppo......!!!
cmq, credo che la pharelia. abbia un solo difetto.. IL COSTO!!!!!!! per il resto è un a buona scheda.... ma a mio avviso il costo NON LA rende competitiva IN NESSUN AMBITO!!!!!!!!!
dato che con i 4 monitor c'è la QUADRO 4 200NVS!!!
mi spiace.. ma lo ripeto. il nemico è il PREZZO!
le matrox come qualità video, e orientamento sono a parer mio ben orientate verso la grafica 2d professionale (pshop illustrator,ecc).
Se dovessi avere un pc (non mac) solo per il 2d la scelta sarebbe pharelia, anche per il supporto a monitor aggiuntivi che è molto utile in campo professionale ma che per i videogiochi (per i quali la sk non è fatta (pensate alle vecchie millennium... erano per i giochi???)) diventa solo un modo simpatico per pubblicizzare questa feature.
Chi dice che fa schifo per i giochi in confronto a ati e nvidia ha ragione, ma è inutile dire che il trattore fa schifo perchè in autostrada non va come una ferrari (provate a arare con la ferrari).
Tetrahydrocannabin
27-11-2002, 19:00
vorrei far presente che (prendendo una scheda DAVVERO professionale) la wildcat pu essendo una vera BOMBA sulla grafica 3d cad o cmq nelle applicazioni pro, è molto più scarsa nella gestione dei giochi
Frankino
27-11-2002, 19:26
la wildcat è una MERDA nei giochi
ha un set di drivers opengl tra i migliori sul mercato, ma con q3 fa ridere. e meno male direi
Tetrahydrocannabin
27-11-2002, 19:30
appunto, giudichiamo le schede nel loro ambito, altrimenti sarebbe come fare un paragone tra una 9700 e una wildcat su ut2003
Denton84
27-11-2002, 19:31
avete visto il core clock? sapete quello della 9700 o della ti 4200? io mi stupirei se facesse di più di quello che fa.....sono curioso piuttosto di sapere come si oveclokka :D
in ogni caso i giochi ormai non la riguardano, per quando riguarda motori heidi fotoritocco etc parlare di nvidia a confronto mi pare ridicolo.....non dico altro....
Tetrahydrocannabin
27-11-2002, 19:37
ok ma lavorare in 2d con una matrox è come lavorare in 3d con una wildcat, IL MASSIMO
e poi il discorso è lo stesso, non ho mai sentito nessuno lamentarsi del rendimento di una wildcat in un gioco eppure costa svariate migliaia di €...
ecco per me la parhelia è lo stesso, solo nel campo del 2d
SURROUND GAMING con 3 monitor, magari intendevano a quake1 ;)
Eraser|85
27-11-2002, 19:51
Ma comprare una scheda solo per il 2d a certi prezzi.. ehmm....
Sentite, non so voi, ma da quando ho cambiato la mia cara vecchia G200 devo aver perso due o tre diottrie. Per chi lavora al computer tutto il giorno (fotoritocco, publishing, ufficio, programmazione, borsa, ecc.), le Matrox sono una favola.
Non vedo l'ora di mettere su questa bellezza... che sarà l'ora in cui la venderanno ad un prezzo un po' più umano...
Colgo l'occasione del ritorno fra le news della Parhelia per cercare di chiarire un mio dubbio!
Tempo fa ho letto sul forum di questo sito che la Parhelia soffre di un difetto hardware che se ricordo bene dovrebbe portare a far comparire a schermo una banda nera orizzontale. Tale difetto se ho capito bene non sarebbe eliminabile tramite un semplice aggiornamento dei driver!!
Qualcuno sa chiarire questa cosa?
Grazie mille!!! :)
ermetallo
28-11-2002, 02:45
La G200 è stata la scheda video peggiore in tutta la storia Matrox!! un vero fallimento!!! Si può dire che, da quando è uscita (e cioè da agosto '98) solo adesso i suoi drivers abbiano raggiunto un certa maturità :D :D :D
+Benito+
28-11-2002, 08:03
per me matrox ha fatto un grossolano errore con questa scheda. ha voluto tentare un exploit nel 3d gaming sbagliando completamente la misura in quanto a prestazioni. Dopo pochi giorni dal lancio, visto che con i giochi era quello che era, hanno rivisitato il target puntando sulla produttivita' personale e sul supporto 3 monitor in 2d.
Quello che non capisco e' perche' si ostinino a presentarla ancora con la funzione surround gaming in risalto, in quanto e' appurato che il surround gaming non e' per niente veloce come esecuzione e pertanto quasi inutilizzabile con i prossimi giochi. Dico questo perche' a smau 2002 c'era una postazione di gioco in s.g. bella grande e un buco ridicolo con una dimostrazione su tre monitor di un programma.
Che senso ha questa scheda? Ma soprattutto, a che minchia servono 256 MB di memoria? Se ne avesse 32 sarebbe lo stesso, tanto in 3d, sia nei giochi, sia in 3ds etc e' lenta, non paragonabile a prodotti dedicati di pari prezzo. Se l'unico motivo di acquistare questa scheda sembra essere la visualizzazione molto superiore alla media e il supporto a tre monitor (a questo punto in 2d) avrebbero dovuto ridurre tutti i fronzoli (e la ram!) per rendere il prezzo piu' aggressivo......invece......
Memore della G400 che mi ricordo solo con lodi, mi dispiace sinceramente per questa mossa falsa che potrebbe costare molto cara a Matrox.
Insomma, sulla qualità della pharelia in 2D non si discute: ha 10 bit per pixel...ahhh ma cavolo, anche la ATI 9700 ha 10 bit per pixel.
Ha un RAMDAC da 400 Mhz....ahhh ma cavolo, anche la ATI 9700 ha il ramdac a 400 Mhz
Andiamo avanti????????
Perche dovrebbe a vere una visualizzaizone superiore alla media?
256 Mb di ram non servono in 2D ma solo nel 3D quindi siamo daccordo che sono inutili, visto che tutti asseriamo che nel 3D questa scheda fa pena
E dure che sono stato un fedelissimo cliente Matrox, mystique, milliennium, G200, G250, G400, G450 e ancora ora in ufficio ho dentro a questo cesso di IBM su cui sto scrivendo c'è una G450...massima stabilita e massima lentezza.
Ora con la pharelia ha fatto veramente un passo falso.
E' come con la benzina...al gente la compra solo se: o costa meno, o costa di più ma rende di piu...non la compra se costa di piu, ha un rendimento inferiore e inquina meno
La G200 un vero fallimento? Guarda che molte case (ibm, dell e altre) la montavano sulle proprie macchine. Poi se le valutazioni sono solo in funzione del gaming questo è un altro discorso. Comunque è stata la prima a supportare la profondita colore 32bit in 3D
+Benito+
28-11-2002, 09:40
Originariamente inviato da Wonder
[B]Insomma, sulla qualità della pharelia in 2D non si discute: ha 10 bit per pixel...ahhh ma cavolo, anche la ATI 9700 ha 10 bit per pixel.
Ha un RAMDAC da 400 Mhz....ahhh ma cavolo, anche la ATI 9700 ha il ramdac a 400 Mhz
Andiamo avanti????????
Perche dovrebbe a vere una visualizzaizone superiore alla media?
256 Mb di ram non servono in 2D ma solo nel 3D quindi siamo daccordo che sono inutili, visto che tutti asseriamo che nel 3D questa scheda fa pena
E dure che sono stato un fedelissimo cliente Matrox, mystique, milliennium, G200, G250, G400, G450 e ancora ora in ufficio ho dentro a questo cesso di IBM su cui sto scrivendo c'è una G450...massima stabilita e massima lentezza.
Ora con la pharelia ha fatto veramente un passo falso.
E' come con la benzina...al gente la compra solo se: o costa meno, o costa di più ma rende di piu...non la compra se costa di piu, ha un rendimento inferiore e inquina meno
io fui contentissimo della G400. Che non sia veloce ok, ma il suo dovere lo faceva alla grande ed e' stata la prima ad integrare il supporto hw all'embm, e all'inizio era invidiata. Che poi sia cosi' lenta non sono d'accordo: a 1024 a quake 3 ci giocavo bene, certo non con 80 fps ma con 30 si'.
Le matrox hanno un che, un qualcosa che non so se e' a livello driver, insomma e' difficile che scattino di brutto, magari il frame rate e' basso, ma dall'esperienza dico che e' piu' costante rispettao ad altre schede.
+Benito+
28-11-2002, 09:44
Originariamente inviato da Wonder
[B]Insomma, sulla qualità della pharelia in 2D non si discute: ha 10 bit per pixel...ahhh ma cavolo, anche la ATI 9700 ha 10 bit per pixel.
Ha un RAMDAC da 400 Mhz....ahhh ma cavolo, anche la ATI 9700 ha il ramdac a 400 Mhz
Andiamo avanti????????
Perche dovrebbe a vere una visualizzaizone superiore alla media?
256 Mb di ram non servono in 2D ma solo nel 3D quindi siamo daccordo che sono inutili, visto che tutti asseriamo che nel 3D questa scheda fa pena
E dure che sono stato un fedelissimo cliente Matrox, mystique, milliennium, G200, G250, G400, G450 e ancora ora in ufficio ho dentro a questo cesso di IBM su cui sto scrivendo c'è una G450...massima stabilita e massima lentezza.
Ora con la pharelia ha fatto veramente un passo falso.
E' come con la benzina...al gente la compra solo se: o costa meno, o costa di più ma rende di piu...non la compra se costa di piu, ha un rendimento inferiore e inquina meno
poi, se permetti, io una differenza lampante nella qualita' di visualizzazione l'ho notata eccome, sebbene sia passato da una G400 ad una modesta radeon 7500bba. Anche se ha 8 bit per colore, anche se ha un ramdac piu' veloce, quello che vuoi: pero' la G400 "si vedeva meglio", imho
La Pharelia è una scheda notevole sotto il punto di vista delle innovazioni che ha introdotto purtroppo non è stata altrettanto valida sotto il punto di vista prestazionale. La sua qualita' video non dipende solo dai 10 bit o dal ramdac ma anche dalla qualita' dei componenti utilizzati (avevo letto un articolo a riguardo), infatti è proprio il segnale che ne esce a essere migliore delle altre schede. Comunque ammetto che anche io sono rimasto deluso, comunque penso che questo sia l'inizio di matrox di tornare in corsa e penso che se riveduto il progetto possa essere notevolmente migliorato (frequenza del core, passaggio a 0,13, ecc..) speriamo negli ing. di matrox
ermetallo
28-11-2002, 12:32
La G200 è stata pubblicizzata come l'unica che potesse muovere Forsaken (ve lo ricordate???) a oltre 100 fps... ma a 16 bit e a 640x480 (certo i tempi erano diversi...siamo nel '98)!!! Ma se non c'erano patch apposite dei programmatori che sfruttassero un po' sta scheda, la grafica in D3D non è che fosse un granchè... ed è stato x almeno un paio d'anni così. X non parlare poi del supporto OGL... praticamente MAI ESISTITO!!! Avete mai provato a giocare a Q3 con la G200? :D
Forse magnate un po' troppi sassi e il cervello vi si è indirito, ma quando si parla di sche per applicazioni professionali vuol dire che NON CI DOVETE GIOCARE!! eppure il concetto non è così difficile. Inoltre il segnale video di un matro è di qualità superiore a tutte così anche i colori ecc. ecc.
Cosa centra l' OGL e la manovre di marketing di matrox. Io dico solo che il successo di una scheda non e' determinato solo dalle prestazioni gaming, ma anche dalle innovazioni che porta (e matrox in questa e' sempre stata pioniera) e nel caso di matrox dalla qualita' del segnale. ti ricordo che matrox ha introdotto con g200 il 32bit 3d, con g400 l'EDM, con pharelia il 10bit color e altre cose. Se poi uno vuole giocare allora si prende ati o nvidia
forse aster non haicapito il punto.... quando e'stata lanciata sul mercato era stata pubblicizzata per ilsurroun GAming cisiamochiariti poi vedendo che rispetto alle geffo3 nonandava na mazza e costava di + si sono inventati la scusa del 2d professional.. ebbene le voglio vedere ste prestazioni professional altrimenti sono affermazioni campate in aria...
Originariamente inviato da Aster
[b]Forse magnate un po' troppi sassi e il cervello vi si è indirito, ma quando si parla di sche per applicazioni professionali vuol dire che NON CI DOVETE GIOCARE!! eppure il concetto non è così difficile. Inoltre il segnale video di un matro è di qualità superiore a tutte così anche i colori ecc. ecc.
Magno ha ragione... ricordo che all'epoca della presentazione, Matrox stessa la proponeva quale soluzione ottimale per i videogiochi (sorround gaming). Quando poi ha visto che in quell'ambito veniva battuta dalle concorrenti allora hanno detto: "aaah, ma nooo! E' una scheda professsssionale, mica per i giochi! :rolleyes: "
(hanno pure cambiato il nome della feature dei 3 monitor da "sorruond gaming" a nonmiricordopiùcosa per far capire che non era adatta... ri-:rolleyes: )
JavaScript
29-11-2002, 06:34
Quanti forse preferirebbero andare "solo" a 100/120 fps ma senza vedere quadrettoni, strappi o sbavature e con colori da favola piuttosto che a 300 fps con tutti i correttori d'immagine disabilitati(ATI/GEforce) ed una qualità visiva nettamente inferiore(dopo un po' che giochi o che lavori gli occhi bruciano se l' immagine non é perfetta).
Niente da dire sulle altre schede (che peraltro possiedo oppure ho provato), parlo perche possiedo una Parhelia 128 retail e posso assicurare anche agli increduli che non é così "indietro" rispetto alla concorrenza, se poi non mi crede nessuno spero che almeno i benchmark di confronto con FSAA e aniso vari a "stecca" possano confermare la validità della scheda in questione.
Non sono un negoziante che cerca di vendervele e, di certo, non voglio vendervi la mia...
Buon pompaggio e salutoni a tutti... :)
+Benito+
29-11-2002, 09:16
Originariamente inviato da JavaScript
[B]Quanti forse preferirebbero andare "solo" a 100/120 fps ma senza vedere quadrettoni, strappi o sbavature e con colori da favola piuttosto che a 300 fps con tutti i correttori d'immagine disabilitati(ATI/GEforce) ed una qualità visiva nettamente inferiore(dopo un po' che giochi o che lavori gli occhi bruciano se l' immagine non é perfetta).
Niente da dire sulle altre schede (che peraltro possiedo oppure ho provato), parlo perche possiedo una Parhelia 128 retail e posso assicurare anche agli increduli che non é così "indietro" rispetto alla concorrenza, se poi non mi crede nessuno spero che almeno i benchmark di confronto con FSAA e aniso vari a "stecca" possano confermare la validità della scheda in questione.
Non sono un negoziante che cerca di vendervele e, di certo, non voglio vendervi la mia...
Buon pompaggio e salutoni a tutti... :)
d'accordissimo: non e' che non ci si puo' giocare! Anch'io sostengo che oltre una certa soglia che puo' essere soggettiva gli incrementi di farme rate non sono percepibili, ma c'e' una differenza: se usi, come qualcuno, non certo io, fa, il monitor a 1600x1200 a 32 bpp con aniso al massimo e AA al massimo, la parhelia mi risulta che non garantisca un flusso video sufficiente a non vedere scatti nelle immagini. Man che meno se attivi il famigerato supporto multimonitor. (infatti allo smau avevano in dimostrazione il surround gaming su tre monitor probabilmente a 1024 o a 800 l'uno, ma con un giochino OSCENO del 1800 che aveva almeno il 50% della scena occupata dal cruscotto della vettura e quindi non renderizzata.
Mi chiedo se per fornire le prestazioni che fornisce, se permetti non certo al livello di schede di uguale prezzo (parlo di presazioni), debba costare cosi' tanto.
Anche la radeon9700 e la gf4ti4600 se abiliti tutti gli effetti etc non mostrano quadrettoni o roba simile, solo che auspicabilmente continueranno a comportarsi cosi' ancora per un po' di tempo (R300 soprattutto) mentre Prhelia e' alla frutta e nel prossimo anno probabilmente sara' gia' una scheda lenta (visibilmente lenta, intendo). Se vuoi giocare, non prendi parhelia, se vuoi fare modellazione solida, non prendi parhelia, se vuoi usare photoshop potresti prendere parhelia in virtu' della qualita' di visualizzazione, ma ti tocca pagarti anche la parte dedicata al gaming che pero' non userai....insomma....la vedo un "di tutto un po'" non focalizzata in niente, se non nella qualita'.
Non volermente, io ho avuto matrox, ma parhelia per me e' stato un errore:
-di progettazione
-di marketing
che non fa per niente bene all'immagine di matrox. Se la casa canadese voleva dimostrare la sua forza tornando d'impatto nel mondo delle prestazioni (come ha fatto, almeno nelle intenzioni al momento del lancio) ha toppato di brutto.
ermetallo
29-11-2002, 13:14
Fino alla Millennium e alla Mistique Matrox era IL MARCHIO x eccellenza, ma dalla G200 in poi si è scavata la fossa da sola. Io sono stato utente G200 e posso dire di essere stato imbrogliato, perchè non mi è stato garantito un supporto software decente (parlo dei driver). Se poi si parla di schede video professionali, allora mi dovete spiegare cosa c'è di professionale in una scheda che non supporta l'OpenGL. Se x "professionale" si intende SOLO prestazioni in 2D, allora stiamo "freschi"...
me la tengo ancora per un po la g 400 +
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.