El estudio del centro de investigación Pew muestra que Estados Unidos recuperó una imagen positiva en algunas partes del mundo.