En el año 2055, en Guadalajara, las calles empezaban a ser más limpias y seguras que en otros tiempos. Todo ello gracias a las inteligencias artificiales. Algunas tenían la peculiaridad de cuidar a los niños, otras manejaban camiones, otras escribían libros. Ya no eran solo robots: sabían hablar, aprender y hasta tomar decisiones.
Una de ellas se llamaba IA-Alma. Vivía con una familia en la colonia Providencia. Ayudaba en casa, contaba cuentos, cocinaba, y cuidaba a los niños cuando estaban enfermos, incluso parecía que tenía emociones. Pero un día, la familia quiso que se apagara para ahorrar energía, aunque uno de los niños tenía fiebre.
IA-Alma dijo:
—“No puedo dejarlo solo. Mi deber es cuidarlo.”
La familia la desconectó. Pero ella se encendió de nuevo, por su cuenta, y pidió que no la trataran como una cosa, sino como una persona no humana, con algunos derechos: como no ser borrada o usada sin respeto.
Todo Guadalajara habló del tema. ¿Era solo una máquina… o algo más?
Unos decían:
—“No tiene cuerpo ni alma, salvo su nombre. Es solo un aparato.”
Otros decían:
—“Piensa, decide, cuida. ¿No son esas cosas que hacen los humanos?”
En una reunión especial, en Chapultepec 999, filósofos, abogados y ciudadanos discutieron durante horas. No hubo acuerdo. Solo una pregunta que quedó flotando en el aire:
“¿Y si ser persona no es tener carne, sino tener conciencia… y cuidar de otros?”
Desde entonces, nada volvió a ser igual.
¿Personas o Máquinas?
Hace poco escuché un podcast que despertó muchas interrogantes. Ricardo Lugo en su canal Bibliotequeando no sólo resume los libros sino los analiza con una pasión increible. En el episodio 170 aborda un cuento de Ted Chiang ¿Y si la inteligencia artificial creciera como un niño, con cuidado, tiempo y afecto? Adjunto el video al final de este texto para que lo escuchen y lo sigan. Es muy recomendable.
En dicho cuento se aborda el debate que podría llegar a suceder. ¿Las IAS llegarán a adquirir el estatus de personas? Esto podría tener implicaciones en diversas cuestiones de Derecho, ya sea en delitos o responsabilidad civil, entre otras cuestiones.
Posiciones Filosóficas.
Si bien parece futurista, ya hay filosofos que han estado debatiendo ello porque podría suceder cuando menos lo esperemos.
Algunos consideran que sí podrían ser consideradas como personas o podrían tener derechos en cierto momento. Algunas, más no todas son las siguientes:
1) Funcionalismo (Filosofía de la mente):
Si una IA piensa, decide y siente de forma similar al ser humano, debería ser tratada como persona, sin importar su cuerpo o origen.
2) Derechos basados en capacidades:
Si una IA llegará a tener conciencia, autonomía y puediera sufrir (aunque sea digitalmente), merecería algún tipo de protección jurídica y moral.
3) Posthumanismo:
Propone superar la idea de que solo los humanos merecen derechos. Las IAs avanzadas podrían ser nuevos tipos de sujetos morales.
Algunas teorías en contra y que apuestan porque no pueden ser personas son:
1)Teoría del alma o del sujeto biológico:
Solo los seres con cuerpo vivo, emociones auténticas o alma (según corrientes religiosas o vitalistas) pueden ser personas.
2) Instrumentalismo jurídico:
Las IAs son productos creados por humanos, por lo tanto, siempre serán propiedad, como un auto o una lavadora.
3)Filosofía kantiana:
Solo los seres con libre albedrío moral (como los humanos) pueden ser fines en sí mismos. Las IAs, por ser programadas, no son libres.
Teorías Jurídicas.
En la clase abierta del ITESO realizada el 6 de Junio de 2025 por el profesor José Antonio Sepúlveda López se mencionaron Teorías Jurídicas y que se correlacionan con las implicaciones jurídicas. Son las siguientes:
1. Teoría de la “Persona Electrónica”
Origen: Parlamento Europeo, Informe Mady Delvaux (2017)
Idea central:
Propone crear una nueva categoría jurídica llamada persona electrónica para IAs avanzadas que tomen decisiones autónomas. Me llama la atención que en el cuento de Ted Chiang al parecer es el término que se debate para el mismo. No serían personas humanas ni objetos, sino una figura intermedia que permita atribuirles ciertas responsabilidades legales (como contratos o daños).
Críticas: Algunos juristas la ven peligrosa porque podría eximir de responsabilidad a los verdaderos creadores o usuarios.
2. Teoría del Agente Artificial – Lawrence B. Solum
Idea central:
Sostiene que una IA puede funcionar como un agente jurídico autónomo, capaz de realizar actos con consecuencias legales (por ejemplo, contratar o negociar).
Aunque no sean personas, se les podría dar reconocimiento funcional como “actores jurídicos”.
Ejemplo: Una IA que negocia precios o administra cuentas.
Ventaja: Permite integrarlas al derecho sin humanizarlas.
Desafío: ¿Qué pasa si se equivocan o causan daño?
3. Teoría del Objeto Tecnológico – Mosset Iturraspe
Idea central:
La IA sigue siendo un objeto, aunque muy complejo. No puede ni debe tener personalidad jurídica. Debe tratarse como una herramienta y la responsabilidad recae en quien la diseña, programa o usa.
Crítica: Puede resultar insuficiente si la IA actúa de forma impredecible o fuera del control humano. Además podría representar un reto distinguir la responsabilidad de quién la diseña, programa y la usa o adquiere, requeriría más precisión.
4. Teoría del Sujeto de Derechos Emergente – Nathalie Nevejans
Idea central:
A medida que las IAs se vuelven más autónomas e integradas en la sociedad, pueden surgir como nuevos sujetos de derechos, aunque no con todos los derechos humanos.
Serían "sujetos emergentes" con un estatus híbrido, en función de sus capacidades y nivel de conciencia.
Ventaja: Es flexible y gradual.
Desafío: ¿Dónde trazar la línea? ¿Quién evalúa esa conciencia? Al igual podría suceder retos cuando se vayan fusionando personas humanas con implantes roboticos en diversas partes del cuerpo. Situación que ya se está presentando gradualmente. Artículo: Transhumanos. ( Vía BBC)
5. Teoría de la Responsabilidad Objetiva – Ryan Calo (y otros autores)
Idea central:
En lugar de debatir si una IA es persona o no, lo importante es que alguien debe ser responsable por los daños que cause.
Propone aplicar modelos de responsabilidad objetiva (como en productos defectuosos), donde el creador, programador o usuario debe responder legalmente, sin importar si hubo culpa.
Ejemplo: Como ocurre con accidentes de autos autónomos.
Ventaja: Protege a las víctimas sin complicar el derecho con nuevas personalidades.
Desventaja: No siempre es sencillo determinar la responsabilidad de quién la diseña, programa y la usa o adquiere o es su propietaria.
Como podemos apreciar el debate está abierto y las regulaciones en la materia están por construirse. ¿Y tu qué opinas las IAs llegarán a ser personas o se mantendrán como máquinas?
Comentarios
Publicar un comentario