Inicio África Namibia

Namibia

Namibia es el país de los desiertos. Un destino, además, muy seguro que puedes recorrer por tu cuenta con un todoterreno y tienda de campaña incorporada. Aunque alberga uno de los mayores parques nacionales de África, Etosha, donde podrás fotografiar toda la fauna africana, Namibia es sobre todo un país para disfrutar de paisajes, de sus fascinantes y emblemáticos desiertos. Las imponentes dunas rojas del Namib, la fantasmagórica silueta de las acacias en Deadvlei -imagen icónica de Namibia- o la famosa Costa de los Esqueletos, aún hoy peligrosa de transitar.