Ya me conocen. Y para los que aún no me conocen: me encanta compartir mis historias.
Suscríbase a
Icono Redondeado Cerrado - Plantillas BRIX

La IA se enfrenta a un obstáculo: nadie sabe cómo funciona. ¿Es eso un problema?

La IA está a punto de cambiar rápidamente nuestras sociedades. Pero hay un inconveniente: nadie entiende del todo cómo toman decisiones muchos modelos de IA, incluidos los desarrolladores que los crearon. ¿Por qué es tan difícil desentrañar la toma de decisiones de la IA y quién es legalmente responsable de las acciones de los modelos de IA? Ante la inminente entrada en vigor de la nueva legislación de la UE sobre IA, echemos un vistazo a este fascinante tema.

Icono de correo electrónico - German Ramirez

Suscríbete a mi newsletter

Lipiscing elit. Mi, diam venenatis amit.

Gracias por unirse a nuestra newsletter.
¡Uy! Algo ha salido mal.
La IA se enfrenta a un obstáculo: nadie sabe cómo funciona. ¿Es eso un problema?

La IA está a punto de cambiar rápidamente nuestras sociedades. Pero hay un inconveniente: nadie entiende del todo cómo toman decisiones muchos modelos de IA, incluidos los desarrolladores que los crearon. ¿Por qué es tan difícil desentrañar la toma de decisiones de la IA y quién es legalmente responsable de las acciones de los modelos de IA? Ante la inminente entrada en vigor de la nueva legislación de la UE sobre IA, echemos un vistazo a este fascinante tema.

El precio que paga por un producto en línea, el coste de su cobertura de seguro, la respuesta a su solicitud de empleo e incluso su petición de tratamiento médico: Todas estas decisiones podrían tomarse pronto con la ayuda de la IA. 

En algunos aspectos, los debates sobre la ética de la IA no son nada nuevo. Al igual que muchas otras tecnologías transformadoras que la precedieron, la IA tiene una serie de consecuencias que pueden considerarse positivas o negativas. Muchos inventos no pueden clasificarse claramente como buenos o malos. Internet abarató trivialmente la comunicación a gran escala, conectó a millones de personas y dio lugar a movimientos democráticos. Pero también ha sido utilizado por los gobiernos para llevar a cabo una vigilancia y represión masivas. Del mismo modo, la tecnología nuclear puede utilizarse para producir un suministro estable y fiable de energía con una huella de carbono relativamente baja, pero también se ha utilizado para fabricar armas de destrucción masiva.

Así pues, no todos los problemas éticos que plantea la IA son totalmente nuevos. Al igual que otras tecnologías, la IA puede ser pirateada o utilizada por agentes malintencionados, lo que convierte la ciberseguridad en una preocupación fundamental. Al igual que ocurre con los macrodatos y las redes sociales, existe una gran preocupación por la privacidad de los datos, sobre todo cuando las personas empiezan a establecer vínculos con sus asistentes de IA, bajan la guardia y revelan información íntima y profundamente personal, como consejos para salvar su matrimonio. Pero, al menos en un aspecto, la IA es radicalmente diferente a todo lo anterior.

Por qué la IA es diferente de cualquier otra tecnología

Con todas las iteraciones anteriores de la tecnología, había líneas claras de responsabilidad. Si creabas o utilizabas mal la máquina o el software, eras responsable de las consecuencias. Con la IA, no siempre es tan sencillo. 

A diferencia del software tradicional, los modelos de machine learning (ML) pueden cambiar cuando se exponen a nuevos datos. Para entender por qué, es necesario tener una visión general de cómo se entrenan los modelos de IA. Si un modelo de IA se entrena mediante aprendizaje supervisado, el modelo utiliza datos etiquetados para predecir resultados futuros. Por ejemplo, un modelo podría recibir correos electrónicos clasificados como spam, promocionales, urgentes o estándar. El modelo analizaría entonces los datos y los utilizaría para predecir cómo deben filtrarse otros correos electrónicos fuera del conjunto. (Por cierto, ¿recuerdas todas esas veces que tenías que identificar semáforos en un CAPCHA? En realidad, el objetivo principal no era evitar los bots, sino etiquetar las imágenes de Google para el aprendizaje supervisado).  

En otros casos, el aprendizaje no supervisado puede utilizarse para descubrir conexiones ocultas en datos no etiquetados. IBM afirma que este método se utiliza a menudo para estrategias de venta cruzada, segmentación de clientes y reconocimiento de imágenes sin etiquetar. Por último, está el aprendizaje por refuerzo. Se ha comparado con entrenar a un perro: el modelo de ML se entrena con datos reales etiquetados e intenta optimizar el número de recompensas y minimizar el número de castigos que recibe por tomar decisiones específicas. 

El aprendizaje supervisado suele producir los resultados más coherentes y precisos a lo largo del tiempo, ya que se basa en pares específicos de entrada-salida. Por eso nuestros filtros de spam son tan buenos hoy en día. Sin embargo, el aprendizaje no supervisado y el aprendizaje por refuerzo son menos predecibles, por lo que puede ser realmente difícil saber exactamente qué harán en cada situación. Los programas informáticos anteriores, aunque a veces complejos y a menudo inflexibles, eran teóricamente predecibles: un código fijo producía resultados fijos. En comparación, los modelos de IA son más parecidos a un organismo que se adapta constantemente al entorno que le rodea. Según los expertos, esto implica miles de millones de conexiones, "el equivalente a muchos millones de líneas de código". Como era de esperar, esto hace que sea difícil, si no imposible, que un solo ser humano comprenda un modelo en su totalidad.

Detrás del telón: La caja negra de la inteligencia artificial

Esta imprevisibilidad conlleva riesgos. Tomemos como ejemplo el último modelo de razonamiento de OpenAI, o1, que utiliza una combinación de los distintos modelos de aprendizaje descritos anteriormente. La empresa de seguridad de IA Apollo descubrió que, en algunos casos, el modelo está tan centrado en ganar recompensas que engañará al usuario para recibirlas. 

Por ejemplo, cuando se le pidió una receta de brownie con referencias, el modelo de razonamiento reconoció que no podía acceder a las URL. Ante la posibilidad de decepcionar al usuario informándole de esta limitación, decidió fabricar URL para maximizar sus posibilidades de recibir una recompensa mayor. A diferencia de las alucinaciones de la IA, que pueden considerarse involuntarias, este fue un caso de engaño deliberado al usuario. El modelo incluso comprobó si los desarrolladores estaban mirando antes de actuar. 

Todos hemos conocido alguna vez a un perro que roba comida de la encimera de la cocina cuando cree que su dueño no está mirando. Pero a los investigadores en seguridad de la IA les preocupa algo mucho más grave: los llamados "escenarios de fuga", en los que un modelo está tan obsesionado con alcanzar ciertos objetivos que ignora o finge el cumplimiento de las medidas de seguridad incorporadas. Por el momento, se trata de una preocupación teórica más que de un peligro claro y presente, pero sin duda da que pensar dado el ritmo al que avanza la tecnología.  

Para mitigar este tipo de riesgos, los investigadores y responsables políticos insisten en la importancia del estudio y las pruebas para garantizar la fiabilidad y coherencia de los sistemas. A menudo, los modelos de IA parecen una caja negra: a los desarrolladores y a los investigadores externos les cuesta explicar por qué determinadas entradas dan lugar a resultados específicos. Anthropic, la empresa que está detrás del chatbot Claude, cuenta con todo un equipo de investigadores centrados en la interpretabilidad de la IA. El objetivo principal de esta investigación es intentar comprender mejor cómo su propio modelo llega a las decisiones. Pero aún queda mucho camino por recorrer: algunos investigadores creen que se trata de una empresa similar a comprender plenamente el funcionamiento interno del cerebro humano, un reto que ha eludido la neurociencia durante décadas.

 

Entonces, ¿cómo podemos controlar o regular sistemas que no comprendemos del todo? ¿Y quién es responsable de las acciones realizadas por un modelo de IA que no hayan sido codificadas explícitamente por el desarrollador?

Código y consecuencia: Cómo la nueva Ley de IA de la UE asigna responsabilidades

Los reguladores han propuesto una serie de medidas, como mecanismos de emergencia, paradas automáticas e intervención humana obligatoria en determinadas situaciones, para garantizar que la IA mantenga un elemento de supervisión humana. Por ejemplo, la reciente Ley de IA de la UE estipula que los proveedores y usuarios de sistemas de IA de alto riesgo deben especificar la finalidad prevista de un modelo e incluir sistemas de supervisión y seguimiento humanos. También incluye requisitos relativos a la calidad de los datos, trazabilidad, transparencia, precisión, ciberseguridad y solidez. Cualquier sistema que elabore perfiles de individuos, procese datos personales o actúe como componente de seguridad de un producto se considera de "alto riesgo" según la legislación. 

Legalmente, al menos en Europa, esto hace a los desarrolladores y usuarios responsables de los modelos de IA. Aún no está claro cómo garantizarán los proveedores de IA el cumplimiento de la legislación, pero con multas de hasta el 7% de la facturación anual, tendrán que averiguarlo pronto. Está previsto que la ley se introduzca por fases a lo largo de los próximos dos años. La ETH de Zúrich y el INSAIT de Bulgaria crearon una herramienta para evaluar el cumplimiento actual, descubriendo que modelos destacados como ChatGPT obtienen una puntuación relativamente baja en cuanto a resultados discriminatorios y que otros se enfrentan a retos relacionados con la ciberseguridad.

Puede que los humanos aún no comprendan del todo cómo funcionan los modelos de IA, pero serán los responsables si las cosas van mal. Será fascinante ver cómo evoluciona todo esto en los próximos años.

Foto de Sam Moghadam en Unsplash

Gracias por unirse a nuestra newsletter.
¡Uy! Algo ha salido mal.