¿Alemania?
Muchos dicen que gracias a Alemania Europa no cae más de lo que debía caer, y otros afirman que gracias a la crisis de la eurozona Alemania está creciendo y absorviendo a los demás países poco a poco. Siempre he creído que el totalirismo no es bueno, y Alemania prácticamente se ha convertido en las dueña de Europa. ¿Verdaderamente Alemania es la piedra donde Europa se tiene que sostener o es un lastre a largo plazo?
PD: no incluyo a Francia porque creo que Alemania ya pasa olímpicamente de Sarkozy.