Las preocupaciones en cuanto al uso de la Inteligencia Artificial han surgido a lo largo del tiempo, más aún ante los diversos incidentes ocurridos con chats que interactúan con jóvenes y adolescentes. Estas situaciones llaman la atención a temas como la ética y la responsabilidad de las compañías y programadores en torno a los intercambios con seres humanos que impulsan acciones que pueden llegar a ser dañinas para la propia persona o un grupo de estas.
El gobernador de California, Gavin Newsom respaldó la propuesta
Con la implementación de esta nueva regulación, California se ha convertido en el primer lugar del mundo en establecer una normativa que implique la responsabilidad de los programadores y empresas de inteligencia artificial. Según palabras del gobernador, Gavin Newsom, es fundamental regular en cuanto a la interacción de los chats de IA con jóvenes, sobre todo en cuanto a temas como el suicidio o las relaciones interpersonales.
En ese sentido, indicó que a partir de la promulgación de esta normativa, los niños y otros usuarios de la inteligencia artificial, serán protegidos ante posibles daños emocionales, que pueden incorporar o asentar incluso ideas de suicidio o de lesiones personales o a terceros. Señalando así, que la intención es implementar la tecnología con medidas de seguridad para los usuarios de la misma.
Según Newsom, la normativa SB 243, junto con la SB 53 promulgada en septiembre, son una demostración de que el estado de California no se quedará inmóvil ante la inexistencia de rendición de cuentas por parte de las empresas de Inteligencia Artificial. Por lo tanto, es su deber imponer límites que obliguen a cuidar desde la interacción a través de los chats, hasta la generación de deepfakes que perjudican a personas.
La idea se intensificó luego del suicidio de un menor
A finales del año 2024, se conoció sobre el suicidio del joven Adam Raine, quien con solo 16 años de edad se quitó la vida, luego de haber sostenido conversaciones con chats de OpenAI durante más de 10 meses. Las conversaciones con el asistente virtual, revelaron que el joven planeaba suicidarse desde hacía tiempo, mientras que el bot le señalaba ideas sobre cómo hacerlo de forma adecuada y eficaz.
Tras la muerte del menor, sus padres entablaron una demanda contra OpenAI, con la que buscaban no solo el resarcimiento por la pérdida de su hijo, sino que buscaban que esta y otras empresas de inteligencia artificial implementaran medidas eficientes para la prevención de estas situaciones. La intención es procurar que los chats dejen de tener un papel activo en la toma de decisiones de las personas con las que interactúan.
La ética en la IA debe controlar los chats y la exposición a peligros en la red
El texto de la nueva regulación expone argumentos de carácter ético para la interacción entre chats de inteligencia artificial y personas, entre los que detallan la responsabilidad de los programadores en cuanto a la generación de alertas que hagan saber que las ideas de estos chats son generadas artificialmente. De ese modo, se busca comprender que la inteligencia artificial carece de sensibilidad o emociones básicas como la empatía, necesaria en las relaciones humanas.
Otra de las condiciones impuestas en la nueva norma, es que los chats deberán generar avisos de descanso cada 3 horas, para que los usuarios no superen este tiempo de conexión. Además, todos los bots de IA deberán incorporar protocolos de prevención del suicidio y la notificación automática a líneas de emergencia en caso de que se le comunique la idea de autolesiones o suicidio en cualquier forma o nivel de seguridad ante dicha idea.
De esta forma, el estado de California se convierte en pionero en cuanto a la regulación de la inteligencia artificial, cumpliendo con aquellas preocupaciones mundiales en cuanto a los riesgos neurológicos de los usuarios y la incidencia en la conducta o el comportamiento de las personas.