Le diagnostic immobilier est-il obligatoire en France ?

Le diagnostic immobilier est-il obligatoire en France ?

Il y a un certain nombre de diagnostic immobilier à la fois obligatoire et souhaitable à faire avant la  vente ou la location d’une maison en France. Leur objectif est d’informer l’acheteur de l’état général du bâtiment  et pour vérifier qu’une propriété est habitable. C’est donc un moyen de protéger votre investissement. En tant que …