Définition du Droit positif
Droit positif : il s’agit de l’ensemble des règles en vigueur à un instant donné, dans toute la hiérarchie des normes. Ce droit contient à la fois le droit français, et le droit international.
Droit positif : il s’agit de l’ensemble des règles en vigueur à un instant donné, dans toute la hiérarchie des normes. Ce droit contient à la fois le droit français, et le droit international.