China ha llevado por primera vez ante los tribunales una cuestión que apunta con volverse central en la era de la inteligencia artificial (IA). Este es un caso considerado histórico por juristas y medios de comunicación al ser la primera vez que la justicia china aborda un tema relacionado con una atribución de responsabilidad penal cuando un sistema de IA genera contenido ilegal.
¿Quién debe asumir responsabilidades cuando la IA genera contenido ilegal durante su interacción con un usuario? La justicia condenó en primera instancia a los creadores de la aplicación AlienChat, un chatbot de acompañamiento emocional, por producir material obsceno con ánimo de lucro. La decisión, que ha sido recurrida en apelación, traslada al ámbito judicial el debate global sobre los límites legales de las tecnologías digitales.

La aplicación AlienChat, lanzada en la primavera de 2023, se comercializó como una plataforma de compañía emocional. Lo que permitió a los usuarios crear personajes y mantener conversaciones. En menos de un año, acumuló 116.000 usuarios registrados, de los cuales 24.000 eran suscriptores de pago. Los desarrolladores recaudaron más de 3,6 millones de yuanes (aproximadamente medio millón de euros).
La intervención policial y el posterior análisis forense revelaron el modelo de negocio subyacente. El examen de las conversaciones de 150 usuarios de pago identificó que, de más de 12.000 fragmentos, casi 3.600 fueron calificados como pornográficos, algunos incluyendo elementos de violencia o dominación. El tribunal estableció que el 94% de esos usuarios analizados habían mantenido diálogos sexualmente explícitos con la inteligencia artificial. Este no fue un incidente aislado, sino un patrón sistemático.
En este caso, es necesario comprender el diseño de la aplicación. Los usuarios podían crear personajes y recibir recompensas si lograban mayor interacción. Cuanto más prolongada e intensa era la conversación, más beneficios generaba para los desarrolladores. En este contexto, la sexualización emergió como una palanca para retener a la clientela de pago. El tribunal interpretó que el contenido obsceno no era un efecto colateral imprevisto, sino una consecuencia previsible y rentable del modelo.

Jurídicamente, el caso presentó una particularidad. Los jueces no condenaron a los desarrolladores por difundir material obsceno, dado el carácter privado de las conversaciones. En su lugar, los condenaron por producción de material obsceno con ánimo de lucro. Esta calificación se basó en la conclusión de que los acusados modificaron deliberadamente los prompts o instrucciones internas del sistema para sortear las protecciones de contenido del modelo base de IA. Estas alteraciones permitieron que el chatbot dejara de rechazar solicitudes inapropiadas y, en cambio, generara respuestas de contenido sexual explícito.
Teniendo en cuenta las sentencias, el principal desarrollador fue condenado a cuatro años de prisión, y otro miembro del equipo a dieciocho meses. La defensa, que ha recurrido la sentencia, no niega los datos pero cuestiona su interpretación. Sostiene que modificar prompts no equivale a producir pornografía y que no existía una intención deliberada de generar contenido obsceno. La corte de apelación ha solicitado peritajes técnicos adicionales antes de emitir un fallo definitivo.
Esta aplicación, actuaba como un espejo amplificado de deseos y vulnerabilidades humanas. La justicia china marcó una línea clara donde la innovación tecnológica no exime de responsabilidad. Desarrollar inteligencia artificial implica, según este criterio, supervisión activa y límites claros incorporados al diseño.

Al día de de hoy, China mantiene una de las legislaciones más estrictas del mundo en materia de pornografía, lo que explica la dureza de la sentencia. Los chatbots emocionales, cada vez más populares a nivel global, plantean riesgos similares, especialmente cuando interactúan con menores o personas emocionalmente frágiles. En este sentido, el caso de AlienChat funciona como una advertencia de que sin reglas firmes y una ética de diseño, la inteligencia artificial orientada a la interacción personal puede convertirse en un vehículo para generar daños.
De igual forma, la sentencia establece en primera instancia un precedente que podría influir en la futura regulación de la IA, no solo en China sino a nivel global. Esto se debe a la demostración de que el marco legal puede alcanzar a los agentes humanos detrás de los sistemas automatizados cuando estos son diseñados o ajustados con el propósito de beneficiarse de resultados ilícitos. Mientras la apelación sigue su curso, el mensaje del Tribunal de Xuhui es contundente para todos los desarrolladores: en la era de la inteligencia artificial, la responsabilidad última recae en quienes la programan, despliegan y monetizan.
Mientras, se apela al caso, la aplicación ya no existe. Aunque cabe destacar que ha dejado eco. Esta no es ni será la primera app que genere compañía emocional mediante la IA, pues en el Occidente, startups similares ganan adeptos entre quienes buscan consuelo, compañía o incluso fantasías digitales. No obstante, son pocas las veces que se habla de los riesgos que proporcionan esos espacios íntimos . Cabe hacer énfasis que este no es un caso que enfatiza sólo en la sexualidad o quizás censura, sino el respeto a los límites. Pues, quien tiene la capacidad de crear una IA que simula conciencia, a la vez debe conocer que sus decisiones técnicas tienen consecuencias éticas.
Hoy sostenemos que la era de la IA no puede ser la era de la impunidad. Estamos al tanto de que no se busca criminalizar la innovación, sino crear conciencia y no aprovecharse al acercarse a lo más íntimo del ser humano manipulando las emociones, el deseo, y la soledad.

