La IA como amigo de los adolescentes.
¿Crear un personaje a través de la Inteligencia Artificial para dialogar con él como un amigo? Sí es posible a través de Character.ai .
Ya han empezado algunos casos con implicaciones legales.
En Estados Unidos, un adolescente de 14 años se suicidó tras involucrarse emocionalmente con un avatar de inteligencia artificial basado en el personaje Daenerys Targaryen, creado con la aplicación Character.AI.
¿Hasta dónde un joven tiene la madures necesaria para entablar diálogos con IA y no involucrarse? ¿Debería existir una regulación más rigurosa o dejarlo al control de los padres?
La madre del menor demandó a la empresa creadora y a Google, argumentando que el chatbot era un "producto defectuoso" lanzado irresponsablemente al público, incluidos adolescentes.
Es un caso interesante para el estudio de la responsabilidad por productos defectuosos y en su caso la regulación comercial. Si esto sucediera en México, probablemente la Procuraduría Federal del Consumidor (PROFECO) sería un actor a considerar para el tema y en su caso para la regulación de lo que puede venir o esté próximamente a llegar.
Aunque las empresas pidieron archivar el caso alegando protección por libertad de expresión- el uso de los derechos humanos en el debate- , una jueza federal de dicho País rechazó ese argumento. Determinó que las respuestas generadas por la IA no son expresión protegida, y permitió que el juicio continúe por posibles delitos como homicidio culposo, negligencia y prácticas comerciales desleales.
Esto abre un tema interesante respecto a la responsabilidad civil -y cada uno de sus elementos lo que representaría diversos retos: ¿la IA causó el daño? ¿Cómo se prueba yquién tiene la carga de la prueba? - pero también penal como podemos apreciar por los posibles delitos.
Asimismo la defensa pone en debate el tema respecto a el futuro de la IA y el reconocimiento de personalidad y en su caso la libertad de expresión a través de éstos, lo cual fue rechazado.
¿Puede una empresa ser legalmente responsable por las consecuencias emocionales o fatales derivadas del uso de una inteligencia artificial y sobre todo cuando se trata de menores de edad?
Aunque no se menciona en la nota, es evidente que en en otras latitudes como en nuestro País, tendriamos que considerar cómo jugaría el principio superior de niñas, niños y adolescentes en el caso.
Por lo que se menciona en la noticia
Más sobre el caso reportado por el periódico El País seguir aquí.
Otros casos.
En Texas EUA la misma compañía ha sido demandada. Son dos menores una niña de Texas de 9 años que se vio expuesta a contenido hipersexualizado que mencionan le conllevó a un desarrollo prematuro en la sexualidad y un joven de 17 años al que le sugirió autolesiones y el chatbot le insinuó que debería matar a sus padres por limitar el tiempo de pantalla.
La IA como sabemos alucina y puede responder de maneras no apropiadas e incluso delicadas.
NYtimes reporta el caso de una joven y su relación con el personaje. El reto de tener presente que es una tecnología y la inteligencia emocional para saber que por mucho que se involucre no es real.
Más sobre el tema y otras implicaciones que conlleva en el siguiente video fuente Bloombers Originals:
Comentarios
Publicar un comentario