Más de Estados Unidos (10 videos)

El presidente de EE.UU. Joe Biden asegura que se terminó la pandemia

El presidente de EE.UU. Joe Biden asegura que se terminó la pandemia

El presidente Joe Biden declaró el fin de la pandemia a pesar de que expertos de salud aún dicen que no hay que bajar la guardia contra el covid-19. Gustavo Valdés nos cuenta.