PDA

View Full Version : Protezione pagine sito web


maverick5
23-03-2007, 13:02
Salve a tutti,
ho il dubbio che, qualunque utente può, via internet, anche senza conoscere la mia user la mia psw, entrare nel mio ftp solo per prendere le pagine .php con il codice sorgente.
Come faccio a proteggerle?
1) devo mettere qualcosa direttamente nel codice di ogni pagina?
2) c'è qualche procedura a livello di cartella dell' ftp?
3) c'è qualche programma che posso usare?
4) devo crittografarle?

Grazie mille
Maverick5

ThE_RaV[3]N
23-03-2007, 14:35
Be insomma mi sembra che le tue preoccupazioni siano troppo azzardate e paranoiche....correggimi se mi sbaglio! ;)

Allora intanto imposta una password complessa, ovvero una password tosta e una volta fatto questo imposta i permessi per i vari files dei quali fai o hai già fatto l'upload...A questo punto l'unica cosa resta che buchino il server e quindi tu non potrai mai farci nulla in questa situazione.

L'unico consiglio che ti do, e che è fattibile dal canto tuo; è di stare attento ai vari exploit per PHP che escono regolarmente. Vedrai che se tieni aggiornato il codice del tuo sito web, restando informato sui vari exploit che escono allora potrai dormire sonni tranquilli....

P:S> Se uno vuole comunque, e ne è capace, potrà sempre rootare un server oppure exploitare un sito web in PHP, PHPNUKE o asp classico....Più tosto è aspx che richiede un bel grado di preparazione per essere forzato...

maverick5
23-03-2007, 15:16
come devo configurare i permessi in ftp?

xcdegasp
23-03-2007, 17:32
io non capisco il senso della domanda..
cmq immagino e quello che mi viene in mente sono due soluzioni:
1) robots.txt o .htacess
2) permessi ai files


1) il robots.txt (o ".htaccess" nel caso di server windows)impedisce il poter entrare in lettura via web di una cartella quindi poterne visualizzare i sorgenti ivi contenuti.

User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /editor/
Disallow: /help/
Disallow: /images/
Disallow: /includes/
Disallow: /language/
Disallow: /mambots/
Disallow: /media/
Disallow: /modules/
Disallow: /templates/


2) mettere ai file contenuti nel server i permessi di sola lettura ed esecuzione per chi non è proprietario quindi 644.


In molti casi basta non aver un opportuno robots.txt e non aver i file in 644 per trovarsi con problemi..
Anche l'impostare un utenza dal nome differente da "admin" per gestire il "CMS" può risolvere il problema.
Inoltre se si copre la directori administrator da una password si aumenta notevolmente la sicurezza :)

Vedi bastano 3 accorgimenti banali per assicurare un livello eccelso di sicurezza e questo non è colpa di come è strutturato un CMS ma di come viene configurato dall'utente :)

ThE_RaV[3]N
23-03-2007, 17:34
io non capisco il senso della domanda..
cmq immagino e quello che mi viene in mente sono due soluzioni:
1) robots.txt o .htacess
2) permessi ai files


1) il robots.txt (o ".htaccess" nel caso di server windows)impedisce il poter entrare in lettura via web di una cartella quindi poterne visualizzare i sorgenti ivi contenuti.

User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /components/
Disallow: /editor/
Disallow: /help/
Disallow: /images/
Disallow: /includes/
Disallow: /language/
Disallow: /mambots/
Disallow: /media/
Disallow: /modules/
Disallow: /templates/


2) mettere ai file contenuti nel server i permessi di sola lettura ed esecuzione per chi non è proprietario quindi 644.

Quoto il collega. Comunque effettivamente la domanda non era per niente molto chiara....

Ciauz Ciauz