Derecho positivo
El derecho positivo es el derecho o conjunto de reglas que se manifiesta y realiza como ley o norma jurídica, en contraposición al derecho natural, como aquel basado en principios éticos o morales que existen independientemente de las personas. De esta forma, el derecho positivo es aquel conjunto de reglas objetivas y concretas, es decir, positivas, de las que se dota una comunidad para vivir en sociedad. En opinión de muchos juristas, el derecho pisitivo es el único con validez aplicable, ya que es el único que ha sido sancionado por el legislador; denominándose a esta corriente de opinión iuspositivismo o positivismo jurídico.
Como citar: Sarasola, Josemari (2024) en ikusmira.org
"Derecho positivo" (en línea) Enlace al artículo
Última actualización: 07/03/2024
¿Tienes preguntas sobre este artículo?
Envíanos tu pregunta e intentaremos responderte lo antes posible.
Apoya nuestro contenido registrándote en Audible, sigue aprendiendo gratis a través de este link!