Ética y desafíos de la IA

1- Introducción a la IA y los desafíos de la ética en la Inteligencia Artificial

Cita destacada: «La IA simula la cognición humana, pero con cada algoritmo, creamos un riesgo que la ética debe iluminar; el ‘riesgo cero’ es una quimera tecnológica.»

La Inteligencia Artificial es como una inteligencia o cognición simulada que replica comportamientos y capacidades inteligentes humanas utilizando medios tecnológicos digitales. Los sistemas de IA son máquinas con programas algorítmicos diseñados para replicar las redes neuronales y habilidades cognitivas humanas, buscando simular esas capacidades de acción típicas de la inteligencia. Esta base tecnológica plantea desafíos inmediatos, ya que todos los sistemas tecnológicos conllevan riesgos, siendo inevitable el «riesgo cero». La filosofía y la ética, incluida la bioética, se posicionan para analizar estos riesgos.

2- Capacidades Actuales de la IA

Cita destacada: «La IA no solo procesa Big Data a la velocidad del rayo; nos revela patrones y conexiones que la mente humana, por sí sola, jamás podría desentrañar.»

Actualmente, los sistemas de Inteligencia Artificial ya superan la inteligencia humana en el procesamiento de datos masivos, conocido como Big Data, realizándolo casi instantáneamente. Mientras que las computadoras ya procesaban información rápidamente, los sistemas de IA con algoritmos pueden clasificar, ordenar y comparar datos de manera que empiezan a tomar decisiones. Esta capacidad de procesamiento de grandes cantidades de información es algo que ninguna persona puede hacer tan rápido.

Estas capacidades permiten que los sistemas de IA sean utilizados para mejorar diversos servicios, realizar estudios, cálculos e investigaciones. También son herramientas útiles para planificar y organizar, propiciando el surgimiento de nuevos modelos de servicios sociales, como se ejemplifica con el desarrollo de Google Maps, que ha permitido no solo el posicionamiento sino también análisis demográficos, geográficos y sociales que antes eran mucho más laboriosos. La IA puede auxiliar a los humanos potenciando tareas cognitivas con datos y cálculos, ayudando a descubrir patrones, efectos causales o causas ocultas que la mente humana podría pasar por alto. Otras capacidades mencionadas incluyen el procesamiento de lenguaje natural, con traductores muy efectivos, el aprendizaje profundo (Deep learning), el reconocimiento de objetos, sonidos, y el posible desciframiento de lenguajes animales. También realizan selección y toma de decisiones algorítmicas en diversos contextos, desde navegación (GPS) hasta potenciales usos en diagnóstico médico o sistemas judiciales, y son capaces de acatar normas.

3- Desafíos y Riesgos de la IA

Cita destacada: «La aceleración de la IA es un tren sin frenos: los riesgos, hoy invisibles, solo se manifestarán como daños cuando ya sea demasiado tarde para reaccionar.»

La filosofía de la tecnología enseña que analizar riesgos es fundamental, ya que todos los sistemas tecnológicos, incluida la IA, tienen riesgos inevitables; no existe el riesgo cero. Se distingue entre riesgos personales, que uno asume conscientemente, y riesgos sociales, que a menudo no se conocen, no se evalúan conscientemente o no se pueden decidir individualmente. La aceleración del desarrollo tecnológico e industrial, impulsada en el caso de la IA por la inversión y el negocio, es un factor clave que impide evaluar y reflexionar sobre los riesgos que se están produciendo.

Si bien los riesgos van de la mano con beneficios y nuevas posibilidades, algunos de ellos pueden salirse de control. El mayor peligro es que estos riesgos no se perciben claramente, se «invisibilizan», y solo se hacen evidentes una vez que se convierten en daños o efectos negativos. Al igual que con el tabaquismo, donde el riesgo para la salud es alto, aunque no todos enfermen, la rápida aceleración de la IA está generando riesgos que aún no se ven con claridad. Es aquí donde la ética, la filosofía y la bioética invitan a detenerse y reflexionar sobre los peligros que se están creando.

4- Restricción de la autonomía

Cita destacada: «Cuando la IA decide por nosotros, ¿dónde queda nuestra libertad? La tecnología, con su afán de seguridad, puede sutilmente cercenar nuestra autonomía.»

Uno de los riesgos clave señalados en documentos internacionales y por expertos es la potencial restricción de la autonomía y la capacidad de decisión de las personas. Los sistemas informáticos y de IA ya están alterando nuestras capacidades de razonamiento y decisión, y en gran medida, están tomando decisiones por nosotros, a menudo sin que seamos plenamente conscientes de ello.

Esta restricción puede manifestarse de diversas formas. Se utiliza el ejemplo de un coche inteligente que podría identificar si una persona ha bebido alcohol y simplemente impedir que el coche arranque o hacer que se detenga, evitando que la persona siga conduciendo. Este tipo de sistema, al poner un límite a la acción humana (con una intención positiva de seguridad), incide directamente sobre la voluntad de la persona. En un sentido más amplio, la creciente dependencia y subordinación a los sistemas de IA para tareas cognitivas puede llevar a una pérdida de agencia humana en muchos ámbitos, un desafío filosófico importante.

5- Influencia y manipulación política

Cita destacada: «La IA, en manos equivocadas, es el arma perfecta para la manipulación política: no solo sesga opiniones, sino que dispara directamente a nuestras emociones.»

Un grave riesgo de la Inteligencia Artificial es su potencial para influir y manipular en el ámbito político. Esto se logra sesgando opiniones, introduciendo intencionadamente datos falsos, noticias falsas (fake news) o imágenes falsas. Más allá de la información, la IA puede generar efectos emocionales directos en las personas que eluden el razonamiento, apelando directamente al sistema límbico.

La investigación psicológica sugiere que los seres humanos no somos agentes puramente racionales y somos, de hecho, fácilmente manipulables. El uso de la Inteligencia Artificial para la manipulación política es un riesgo latente y real en los sistemas electorales de todo el mundo. Además, existe un riesgo terrible de que los sistemas de Inteligencia Artificial se vuelvan totalitarios si son utilizados por gobiernos autoritarios para el control, la manipulación, la invasión de la privacidad, el espionaje y la potenciación del uso de datos y cálculos. Entregar estas capacidades tecnológicas a regímenes autoritarios se considera altamente peligroso.

6- Sesgos discriminatorios

Cita destacada: «Los algoritmos no son neutros: heredan y amplifican los sesgos de la sociedad, perpetuando la discriminación en el corazón de la Inteligencia Artificial.»

Uno de los problemas más evidentes y ya documentados de la Inteligencia Artificial son los sesgos discriminatorios presentes en muchos algoritmos. Estos sesgos, que pueden manifestarse al clasificar imágenes, reconocer rostros o procesar textos, no son accidentales, sino que se derivan, en primer lugar, de un diseño inadecuado de los algoritmos.

Fundamentalmente, los algoritmos y los sistemas de aprendizaje automático adquieren y reproducen estos sesgos porque aprenden de las bases de datos y de la propia estructura social en la que están inmersos y de la que obtienen sus datos de entrenamiento. Si la sociedad tiene sesgos, la IA entrenada con datos de esa sociedad también los tendrá, perpetuando o incluso ampliando la discriminación en diversas áreas.

7- Invasión de la privacidad y la intimidad

Cita destacada: «Nuestros dispositivos, asistidos por IA, son espías silenciosos: cada clic, cada búsqueda, cada palabra, se convierte en un dato explotable, sacrificando nuestra intimidad.»

Los sistemas de Inteligencia Artificial representan un riesgo significativo para los derechos fundamentales como la privacidad y la intimidad. La vida privada de las personas no solo se ha convertido en objeto de interés público, sino que existe una invasión generalizada a la intimidad de todas las personas, lo cual es inherentemente problemático.

Aunque a veces se justifica la invasión de la privacidad con fines aparentemente positivos, gobiernos y entidades privadas la utilizan para espionaje generalizado. Los teléfonos móviles son un ejemplo claro de cómo la tecnología, asistida por IA, nos espía constantemente, escuchando, viendo, analizando nuestras búsquedas y actividad cotidiana, dejando huellas digitales por todas partes. Esta invasión y la posterior manipulación, comercialización y explotación de datos personales son considerados riesgos primordiales de la IA.

8- Exacerbación de desigualdades

Cita destacada: «La IA promete un futuro brillante, pero sin acceso equitativo, solo ampliará la brecha entre quienes la poseen y quienes quedan rezagados en la carrera tecnológica.»

La Inteligencia Artificial también tiene el potencial de exacerbar las desigualdades sociales, económicas y políticas preexistentes en el mundo. Esto ocurre porque el acceso a los beneficios más importantes y notorios de la Inteligencia Artificial no es uniforme.

Quienes tienen acceso a las capacidades y herramientas más avanzadas de la IA obtienen claras ventajas competitivas sobre los demás, ya sea en el mercado laboral, en los negocios o en el acceso a información. El mercado capitalista, donde operan principalmente los sistemas de IA, tiende a generar más desigualdad, y son los sistemas sociales, los estados o los sistemas de justicia distributiva los que deberían corregir estas anomalías, algo que no siempre sucede de manera efectiva.

9- Efectos ambientales negativos

Cita destacada: «La ‘nube’ de la IA tiene un peso real y oscuro: centros de datos que devoran energía y agua, dejando una huella ambiental que no podemos ignorar.»

Aunque a menudo se perciben como etéreos o intangibles, los sistemas de Inteligencia Artificial tienen una materialidad clara y pesada, representada por los gigantescos centros de datos que almacenan y procesan la información. Estudios muestran que estos centros de datos requieren un uso intensivo de energía y agua para su funcionamiento y enfriamiento.

Este consumo desproporcionado de recursos puede incrementar los efectos ambientales negativos, agotando el agua y la energía en un contexto de creciente escasez, y generando más contaminación. Se ha calculado el costo ecológico de actividades digitales aparentemente simples como enviar un correo electrónico o navegar por internet. A medida que los sistemas de Inteligencia Artificial se vuelvan más potentes y rápidos, requerirán un mayor uso de estos centros de datos y, por ende, un mayor consumo de recursos, planteando un problema ambiental serio.

10- Dilución de la responsabilidad

Cita destacada: «Cuando la IA falla, ¿quién es el responsable? La complejidad de sus sistemas disuelve la culpa, dejando un vacío ético donde nadie asume las consecuencias.»

Un riesgo ético significativo de los nuevos sistemas tecnológicos como la IA, que se encadena con patrones observados en sistemas industriales previos, es la dilución de la responsabilidad. Cuando estos sistemas se extienden globalmente, a menudo impulsados por necesidades comerciales, la responsabilidad, incluso en personas con altos cargos, tiende a distribuirse demasiado o a sesgarse, volviéndose difícil de atribuir.

Existe un problema de efectiva responsabilidad porque los problemas complejos generados por estos sistemas pueden hacer que las personas sean incapaces de reaccionar rápidamente o incluso de comprender completamente la magnitud del problema. Se utiliza el ejemplo del accidente nuclear de Fukushima, donde el fallo de los sistemas y la dificultad para reaccionar rápidamente ilustraron cómo algunos problemas tecnológicos se vuelven extremadamente difíciles de resolver. Cuando un sistema de Inteligencia Artificial falla o causa daños, resulta complicado identificar a quién pertenece la responsabilidad: ¿las empresas, los operarios, los diseñadores, el gobierno?. Esta cadena compleja de máquinas y datos puede transferir errores, haciendo que encontrar la causa y el responsable sea muy difícil.

11- Riesgo de que la IA no sea tan inteligente como se cree

Cita destacada: » «Confiamos decisiones cruciales a la IA, pero ¿qué sucede cuando la ‘inteligencia’ artificial carece de empatía, adaptabilidad o una genuina intención humana?»

Un riesgo primordial es que los sistemas de Inteligencia Artificial no sean tan inteligentes como se piensa. A pesar de sus capacidades de procesamiento de datos, carecen de cualidades humanas como la adaptabilidad, la capacidad de reaccionar rápidamente ante lo inesperado, la sensibilidad, la empatía o la capacidad deliberativa compleja. A diferencia de los humanos, que pueden realizar esfuerzos heroicos y tomar decisiones cruciales en desastres basándose en conocimiento y valentía, la IA podría no poseer estas facultades.

Al confiar decisiones importantes de la vida a estos sistemas, nos estamos encomendando a «cosas que no sabemos realmente cómo van a funcionar ante circunstancias nuevas, problemas inéditos». Aunque los sistemas de IA aprenden (Deep learning) y pueden tomar decisiones que parecen independientes de la programación, estas pueden colisionar con las decisiones humanas. La experiencia con sistemas de IA actuales, como los chats de atención al cliente, a menudo revela sus limitaciones: no son muy eficientes, se traban y no entienden el problema subyacente porque no hay una inteligencia humana con intención detrás. La IA no tiene buena ni mala intención, pero su capacidad de acción puede ser muy limitada.

Una conclusión fundamental es que los sistemas de IA nunca deberían tomar decisiones cruciales de vida o muerte o de gran impacto social/ambiental, reemplazando a los seres humanos. Lo ideal es que la IA sirva como instrumento de apoyo, no que nos volvamos dependientes o subordinados a ella.

En definitiva, la humanidad puede esperar que la IA continúe siendo una fuerza transformadora con un potencial inmenso para el beneficio, pero que su desarrollo acelerado y su naturaleza inherente al mercado conllevan riesgos éticos, sociales y ambientales muy serios. La expectativa es que estos desafíos éticos se aborden activamente, requiriendo reflexión filosófica, evaluación social, participación democrática y regulación para asegurar que la IA se utilice de manera responsable y alineada con los valores humanos, evitando la pérdida de la agencia y la autonomía.

Imagen que contiene Interfaz de usuario gráfica

Descripción generada automáticamenteDiagrama

Descripción generada automáticamente