Droit positif

« Retour à l'index du lexique juridique

Définition du Droit positif

Droit positif : il s’agit de l’ensemble des règles en vigueur à un instant donné, dans toute la hiérarchie des normes. Ce droit contient à la fois le droit français, et le droit international.

Donnez votre avis

A propos de l'auteur

LegaLife

LegaLife est un site proposant un accompagnement juridique simple et accessible aux TPE/PME et aux particuliers. Cette solution permet à nos membres de gagner du temps et d'économiser de l'argent face à leurs problématiques juridiques.