El debate de la Ética de la Inteligencia Artificial

Otro fantasma recorre el mundo. Es el fantasma de la inteligencia artificial. Es un fantasma real que se verá más en el futuro, pero que está presente y visible hoy e incluso ya instalado en el funcionamiento de muchos sistemas informáticos de procesamiento de datos. Es una nueva articulación entre los hombres y las maquinas, un nuevo nivel de desarrollo del conocimiento y una muy superior tecnología de manejo y procesamiento de la información.

El mundo está inserto en un incremento del conocimiento que ha derivado en más datos e informaciones y a la vez en sistemas más complejos para su gestión y procesamiento. Un mero ejemplo simple del pasado nos remite a la innovación de las calculadoras para procesar datos a medida que aumentó su cantidad y la demanda de gestión, procesamiento, síntesis o presentación de ellos, todo lo cual nos trajo a las millones de tareas que hoy hacen las computadoras por nosotros.

Asistimos con mayor amplitud a un avance articulado y compartido de nuevos conocimientos y con ello a nuevos sistemas de procesamiento, análisis, síntesis, conceptualización o clasificación. Estos nuevos vientos de IA son derivación del propio desarrollo de los buscadores como ejes de ordenamiento y selección de información en red y que ya desde hace años se han venido agotando y volviéndose crecientemente ineficientes como buscadores. Se han transformado más en mecanismo de venta de publicidad que un mecanismo de selección y acceso a la información pertinente. Este nuevo momento del desarrollo de las tecnologías y de la ciencia, crea temores personales e impacta en los intereses y las perspectivas de los diversos actores, y con ello en la política y la ética sobre la cual se construyen las sociedades democráticas. Por ello, el debate sobre la IA se ha localizado en el campo de la ética y en los valores. Y por detrás entre un nuevo marco intelectual entre la ética de los humanos y la ética de la ciencia.

La irrupción de la IA, ya no en un plano teórico o de investigación, sino en la aplicación practica con impactos en los negocios y en las utilidades sociales, deriva en una discusión en el plano de la ética con demanda de mecanismos de regulación normativos. La constatación de impactos positivos y a la vez en derivaciones negativas, llevo en el 2019 a que los países plantearan a la UNESCO la formulación de recomendaciones globales de políticas sobre la IA. La Recomendación aprobada define a la IA como «tecnologías de procesamiento de información que integran modelos y algoritmos que producen una capacidad para aprender y realizar tareas cognitivas, dando lugar a resultados como la predicción y la adopción de decisiones».

En este contexto que puede implicar aprendizaje o razonamiento automático, se preeve impacto en múltiples áreas desde el empleo y el trabajo, la comunicación y el acceso a la información, la interacción social o la atención de la salud. Desde el ámbito ético, la IA plantea desafíos múltiples en relación al procesamiento de la información y la diversidad en su acceso, que sugieren elaborar marcos jurídicos reguladores globales a lo largo de todo el ciclo de acción de la IA (captación de información, procesamiento, criterios y variables de los algoritmos, y toma de decisiones automáticas), así como la responsabilidad empresarial.

La Recomendación no plantea limitar el desarrollo de la IA, sino que reconoce su importancia para la humanidad y el avance de las sociedades, y busca un dialogo que propenda a facilitar un acceso equitativo, inclusivo y un aprovechamiento compartido. Se busca con razón que se puedan confiar en la IA y que esta aporte beneficios al tiempo que se limiten sus riesgos potenciales. Falsas noticias, utilización engañosa de sus respuestas, manejo interesado de la información, son los primeros ejes de la necesidad de una regulación ética de la IA.

Las personas, las organizaciones y todos los actores deben tener certezas de la información brindada y que ella toma en cuenta la diversidad del conocimiento. La Recomendación de la UNESCO se centra en el derecho a la intimidad y protección de datos, en la necesidad supervisión humana de sus actos, y la transparencia y explicabilidad de sus modelos y algoritmos.

Estamos en una nueva fase en la relación con la ciencia que plantea problemas y desafíos, con el riesgo de ponerlos por encima de beneficios potenciales pero que aún no se visualizan claramente. Las resistencias empresariales, los temores de perdidas irracionales y las políticas y normativas tanto protectivas como regulacionistas conviven en general en estos tiempos de impacto de «creaciones destructivas» que imponen cambios en los modelos de negocios, en la eficiencia de las inversiones, en la necesidad de reaprendizajes o de cambios en los niveles de aversión al riesgo y mantenimiento de los espacios de confort en nuestros sistemas mercantiles.

En estas semanas empresarios de algunas de las más mayores empresas mundiales de la ola digital del conocimiento, junto con académicos y políticos, levantaron la voz reclamando una moratoria de la investigación y pruebas en IA. Más allá que sus empresas hace años que experimentan y utilizan IA en sus algoritmos de procesamiento de la información, pero que están retrasadas en esa competencia, se reforzó un debate sobre regulaciones sobre la IA. Pero mientras tanto las acciones de OPENAI aumentaron.

Deja una respuesta

Your email address will not be published.