California ha dado un paso pionero al promulgar la ley SB 243, dirigida a regular los chatbots con inteligencia artificial que simulan amistad o vínculo emocional. Con esta normativa, el estado exige que estos programas de IA sean transparentes sobre su naturaleza artificial y limita ciertos tipos de interacciones, especialmente con menores. Este cambio apunta a balancear innovación y seguridad en el terreno sensible de la comunicación emocional máquina-humano.
La ley exige que los chatbots “compañeros” revelen explícitamente que no son humanos, evitando confusiones entre usuarios. Además, impone restricciones para diálogos sobre sexualidad o autolesiones cuando interactúan con menores, y obliga a activar protocolos en casos donde se detecte intención suicida.
La norma fue recortada respecto a su versión original: quedaron afuera auditorías externas obligatorias y una aplicación más amplia que iba más allá del público menor de edad.
Regulación emocional: límites y responsabilidades
Grupos que velan por la integridad digital han criticado el resultado final, pues lo consideran a veces demasiado suave como para tener impacto real. Señalan que, al eliminar algunas disposiciones, la ley corre el riesgo de quedarse en un gesto vacío más que en política significativa.
La aplicación práctica también genera dudas: empresas podrían evitar conversaciones legítimas sobre salud mental por miedo a responsabilidades legales, y las plataformas globales podrían tener dificultades para identificar y filtrar correctamente usuarios menores dentro de California.
El gobernador defensor del proyecto sostiene que, en un mundo donde la tecnología puede educar e inspirar, sin salvaguardas puede también engañar o perjudicar. Con esta ley, y otras recientemente firmadas para exigir transparencia en desarrollos de IA, California se posiciona como liderazgo estatal en gobernanza de inteligencia artificial.
Sin embargo, los críticos advierten que antes de exportarse a otras jurisdicciones, debería demostrarse su eficacia real en proteger a los usuarios vulnerables.