Inteligencia artificial: ¿cómo se puede regular?

Disponible en:Medellín30 sep. 2024

Agencia de Noticias UPB – Medellín. El uso cada vez más común de la inteligencia artificial es una fuente de oportunidades, pero también conlleva riesgos. Con el impacto que puede tener esta tecnología, se vuelve necesario pensar en las regulaciones legales que requiere su uso seguro. El doctor Rubén Rodríguez Samudio, profesor de la Universidad de Waseda, en Japón, dio una charla en la Universidad Pontificia Bolivariana para abordar el tema.

 

 
Doctor Rubén Rodríguez Samudio

Doctor Rubén Rodríguez Samudio.

 

En primer lugar, antes de hablar de regulación, el profesor Rodríguez vio pertinente aclarar qué es la inteligencia artificial y hasta dónde puede llegar. Explicó que hoy en día no existe una inteligencia artificial fuerte que sea capaz de pensar por sí misma ni que pueda aprender cosas para las que no fue programada, sino que hay inteligencias artificiales débiles que simulan procesos de pensamiento y realizan tareas específicas.

Nosotros, como seres humanos, somos animales de patrones. Por eso es que la inteligencia artificial puede, hasta cierto punto, imitar nuestro comportamiento”, dijo Rodríguez. Sin embargo, la IA aún no tiene la capacidad de pensar instintivamente como nosotros.

También aclaró que no se trata de una tecnología completamente nueva. Los robots de manufactura y los algoritmos de sitios como Amazon o YouTube han usado la inteligencia artificial para identificar patrones desde hace varios años. Lo que es nuevo es la inteligencia artificial generativa.

No fue hasta el 2014 que empezaron a darse los saltos tecnológicos necesarios para que este tipo de inteligencia artificial surgiera. ¿Qué es la inteligencia artificial generativa? Es el tipo de inteligencia artificial donde el usuario le da al sistema un comando y el sistema, de cuenta del comando, produce un resultado”, relató Rodríguez.

Basado en esto, explicó que la regulación de la inteligencia artificial se debe basar en códigos de conducta; es decir, qué no se debe hacer con la tecnología. Sin embargo, surgen algunos problemas, ya que, según dijo, “nadie sabe qué es lo que está pasando con la inteligencia artificial en muchos casos”.

Ese problema de la opacidad se llama el problema de la caja negra. Y es que, cuando hablamos de un sistema de inteligencia artificial, como los algoritmos, tú le presentas a la computadora un comando y la computadora te arroja un resultado. Tú no tienes absolutamente ninguna idea de cómo tú llegaste del resultado A al resultado B”, dijo el profesor.

Una opción para superar esta dificultad sería que la inteligencia artificial pudiera sustentar sus decisiones. El problema que aparecería en ese caso sería que, según el doctor Rodríguez, probablemente las personas no entenderían la explicación que esta daría, pues la IA no razona del mismo modo que los humanos. En lugar de usar la lógica de causa-efecto, lo que hace es buscar correlaciones.

Debido a esto, si la inteligencia artificial fuera usada, por ejemplo, en procesos judiciales, los resultados estarían limitados por los sesgos en los datos que recibe y por eso podría caer fácilmente en la discriminación. Esto por no hablar de que ni los jueces ni los fiscales serían conscientes de cómo funciona el sistema y podrían confiarse demasiado, situaciones a las que también se refirió Rodríguez.

 

 
El doctor Rubén Rodríguez Samudio, de la Universidad de Waseda, acompañado por la profesora María Alejandra Echavarría Arcila, de la UPB.

El doctor Rubén Rodríguez Samudio, de la Universidad de Waseda, acompañado por la profesora María Alejandra Echavarría Arcila, de la UPB.

 

Otro caso en el que se pueden presentar dilemas es el de los vehículos autónomos. No siempre es claro quién debe responder por los accidentes que se puedan presentar, especialmente en los casos en los que el ser humano podría incumplir la ley para proteger la integridad de otra persona, pero la máquina está programada para seguir las normas de tránsito.

El cumplimiento de la ley exime de responsabilidad. Si la ley a mí me impone una obligación y yo, cumpliendo esa obligación, le causo daño a alguien, por mucho daño que le haya causado a esa persona, yo no tengo responsabilidad. Ese es el tipo de preguntas que tenemos aquí ahora mismo. ¿Qué vamos a hacer con eso?”, cuestionó Rodríguez.

Cada país ha abordado estas cuestiones de maneras diferentes. En Estados Unidos, por ejemplo, se utiliza un marco ético general para decidir qué se puede hacer y qué no con la IA, pero no hay unas reglas específicas ni ninguna ley. Japón, por otro lado, se basa en una serie de principios: el ser humano debe estar en el centro, las personas deben ser conscientes del funcionamiento de la inteligencia artificial según el uso que le den y la privacidad de los usuarios debe estar protegida.

La Unión Europea tiene una regulación basada en tres niveles de riesgo: inaceptable, cuando contenga mensajes subliminales, se enfoque en grupos vulnerables, dé tratos discriminatorios que no sean resultado de los datos originales o conecte sistemas de reconocimiento facial o puntaje social con el internet; alto, cuando potencialmente pueda poner en riesgo la seguridad del consumidor o su privacidad, y bajo, cuando no exista ese riesgo.

En los próximos años, cada legislación tendrá que adaptarse a los cambios tecnológicos que se presenten. Tener en cuenta los alcances de la inteligencia artificial será indispensable.

Por: Juan Daniel Arias Mejía – Agencia de noticias UPB.

Logo Universidad Pontificia Bolivariana

Resolución 020198 del 31 de octubre de 2024 por un periodo de 8 años

Universidad sujeta a inspección y vigilancia por el Ministerio de Educación Nacional.
Otorgado por el Ministerio de Educación Nacional. Nit UPB: 890.902.922-6. Todos los derechos reservados