LIBRI che INSEGNANO qualcosa?
mi sapete dire qualche libro che insegna qualcosa della vita?
non deve essere un racconto...e non deve essere pesante
ad esempio io pensavo anche a libri sull'autostima...sul pensare positivo (di cui ho un'estremo bisogno) , sul modo giusto di rapportarsi agli altri...ecc
---------> e dite in 2 parole cosa insegna il libro che suggerite
Ultima modifica di Amon-Ra : 02-05-2007 alle 18:45.
|