¿Debe regularse la Inteligencia Artificial?

Fuente: Télam

 

A inicios de semana cientos de expertos vinculados con el desarrollo de la Inteligencia Artificial (IA) firmaron una carta abierta y juntaron firmas para detener, al menos por 6 meses, los experimentos, investigaciones y avances de esta tecnología. En la misiva se solicita a los desarrolladores trabajar en acuerdos para implementar técnicas que ayuden a distinguir entre lo real y lo artificial, trabajar preventivamente para hacer frente a la dramática perturbación económica, política y democrática que podría generar la IA y establecer sistemas de seguridad con nuevas autoridades reguladoras.

Ante esta situación es válido preguntarse si la tecnología constituye una amenaza tan grave como se sugiere y en caso de que así sea, ¿Puede regularse? Para contestar estas preguntas, desde Portal Universidad nos pusimos en contacto con Rodrigo Bionda, Juez en lo Civil y Comercial de la Provincia de Buenos Aires, Docente, investigador y miembro admitido Ad Hoc para elaborar una Convención Internacional sobre la Lucha contra el Uso de las Tecnologías de la Información y de las Comunicaciones con Fines Delictivos de la Organización de las Naciones Unidas (ONU).

Respecto de la magnitud que tiene esta amenaza para la sociedad, Bionda dijo: “La situación tomó trascendencia internacional a partir de la aparición de un producto comercial, el Chat GPT 4. Es un algoritmo que mediante fórmulas matemáticas sintetiza un modelo de predicción abstracto que se  nutre de una diversidad de fuentes. Lo notable de este producto es que uno puede interactuar y obtener un resultado hecho a medida de las necesidades que se tienen”. 

Foto: Chat GPT es un algoritmo que mediante fórmulas matemáticas sintetiza un modelo de predicción abstracto y brinda respuestas a medida del usuario. Fuente: Télam

“Sin embargo, la inteligencia artificial no es algo tan novedoso que recién irrumpe en la vida cotidiana. Nosotros venimos interactuando con IA desde tiempos inmemoriales: cuando uno interactúa con cualquier buscador, Google por ejemplo, uno ya está interactuando con IA. Google tiene modelos predictivos abstractos de algoritmos de IA que ya están registrados como productos ante el ente fiscalizador de Estados Unidos. Algunos de esos algoritmos permiten asociar las primeras tres letras de la palabra que se ingresa en el buscador junto con la ubicación geográfica para poder darte la información lo más precisa posible en torno a lo que vos requerís”, explicó.

Asimismo, sobre este aspecto profundizó: “Venimos interactuando con IA hace mucho y su intervención en la interacción de personas en redes sociales es el ejemplo más claro y paradigmático que revela que los humanos, frente al uso de la IA, salimos perdiendo por goleada. Los algoritmos en redes sociales han logrado construir una realidad muy distinta a la realidad de primera mano, pero fundamentalmente han logrado captar, apropiarse de lo que se denomina excedente conductual. Antes los nueve gigantes de internet se apropiaban de los datos personales de los usuarios con el objeto de mejorar la experiencia del usuario y había una gran porción de esos datos que dejaban de lado porque no les servían para nada. Lo que cambió es que se dieron cuenta que podían extraer esos datos de excedente conductual, podían extraer preferencias, gustos,  vínculos y se podía empezar a construir con eso campañas de microtargeting o marketing dirigido”.

“De este modo entramos en esta nueva fase del capitalismo, el de la vigilancia, que comparte los mismos principios y objetivos que el capitalismo pero se nutre de un producto distinto, se nutre del excedente conductual y se apropia de los gustos, preferencias, vínculos y emociones de todo aquel que deja su huella en los ecosistemas digitales. Con esta información diseña una serie de productos a medida del usuario y no solamente tiene injerencia en términos comerciales, sino que se comienza a vender la influencia sobre nuestros comportamientos a futuro. Nosotros ya somos el destinatario de la campaña, nos transformamos en la materia prima de este capitalismo de la vigilancia. Esto tiene consecuencias en términos políticos o en clave democrática como se vio en el gran escándalo de trascendencia mundial de Cambridge Analytica, donde Facebook (ahora Meta) le proporcionó el excedente conductual que se apropió de sus usuarios para torcer la voluntad del electorado en las elecciones de EEUU en 2016 y el referéndum que dio lugar al Brexit en Inglaterra”, aseguró.

Foto: La venta de datos de usuarios permitió torcer la voluntad de los electores. Fuente: Télam.

Ante esta situación, queda claro que el uso desregulado de la Inteligencia Artificial puede tener consecuencias nefastas que atentan directamente contra la organización democrática de los Estados, ya que no hace falta recurrir a las viejas y explícitas recetas y construcciones de las dictaduras. Sobre este aspecto, Bionda expresó: “El problema pasa por ahí. Académicos e investigadores de todo el mundo coinciden en que existe la probabilidad de que la IA desencadene la extinción humana o una pérdida de poder severa e irreversible si no se regula esta tecnología. Cuando un laboratorio quiere lanzar al mercado un medicamento o una nueva vacuna tiene que aprobar muchísimos estudios y pruebas, debe analizar cómo impactará eso en el ambiente. Existe a nivel mundial un principio precautorio que implica que si vos tenés dudas en torno a los beneficios que tiene tu producto, no se puede lanzar al mercado. Hoy están lanzando productos de IA al mercado sin evaluar las consecuencias contextuales que estos productos van a tener y sin estudiar el ritmo con el que deberían ser lanzados para ser absorbidos de forma segura por la cultura.  Una carrera por dominar el mercado no puede marcar la velocidad de implementación de una tecnología”.

“Detrás de esto claramente hay una puja económica. Se lanza un producto al mercado sin  analizar las consecuencias que puede tener. En ecosistemas digitales uno no puede lanzar un producto sin medir las consecuencias. Cualquier producto debería superar un test o evaluación de impacto contextual, analizar qué perjuicios puede traer aparejados”, afirmó.

Regular la Inteligencia Artificial es complejo

La regulación de la tecnología no es tan simple porque se trata de una problemática que atraviesa a distintos países que tienen además distintos grados de participación en el desarrollo de la misma. Al respecto, Bionda dijo: “En el 2021 la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (Unesco) diseñó una serie de textos con recomendaciones sobre la ética de la IA. No se habla de normas jurídicas sino de principios éticos que pueden ser adoptados e implementados por todos los países miembros. La dificultad que se plantea con la regulación tiene que ver con que las regulaciones estatales tienen límites territoriales contra productos que están gestados, diseñados y ejecutados desde un concepto distinto que es la descentralización geográfica”. 

“Los países se han dado cuenta de que hay asimetría de poder, asimetría de intereses y la única forma de hacer frente a la descentralización de los delitos vinculados con la Tecnología y la Comunicación es ponerse de acuerdo sobre los pilares centrales, sobre los objetivos y la formas de llevar adelante esa lucha. En las Naciones Unidas es muy evidente que aquellos países  que tienen poder de veto tienen armada toda una industria detrás del ciberterrorismo y los ciberdelitos. El informe de la Unesco que mencionaba incluye un capítulo donde establece que los Estados miembro deberían establecer un estudio de evaluación del impacto ético para determinar y analizar beneficios, problemas, riesgos, medidas adecuadas de prevención, atenuación y seguimiento de los riesgos, entre otros mecanismos de garantías”, explicó.

Por otro lado, Bionda mencionó algunos intentos que se realizaron a la hora de regular la IA y dijo: “Se ha tratado de luchar hace un tiempo ya contra lo que es la opacidad, la falta de transparencia de los algoritmos. No sabemos cómo opera el algoritmo, no sabemos qué sesgos utiliza, no sabemos con base en qué datos toma decisiones. Por ejemplo, cuando el GPS te avisa que estás transitando por una zona peligrosa, ¿en base a qué parámetros decide que esa zona es peligrosa? Puede ser que se base en un mapa del delito elaborado por un gobierno circunstancial, con datos de delitos que pueden medir homicidios o consumo de drogas, pero esto tiene un sesgo incorporado que trae consecuencias para los habitantes de la zona. Habitar una zona peligrosa coloca sobre mi cabeza una etiqueta que dice que soy una persona peligrosa”.

Foto: No sabemos como el GPS determina que una zona es peligrosa. Fuente: Télam.

Otro caso distinto y concreto es la comunicación “A” 6724 que emitió el 10 de marzo el Banco Central. Se trata de una directiva que tiene por objetivo que todos los bancos y entidades financieras y parafinancieras de Argentina se ajusten y adopten un piso mínimo. Lo particular es que dedica un capítulo a regular lo que es el uso de IA o de machine learning para la interacción de  entidades financieras y clientes bancarios. Impone que las entidades financieras deben identificar y documentar el objetivo del software que utilizan, el algoritmo de inteligencia artificial o aprendizaje automático en los procesos que utilizan para determinar si un cliente es apto para recibir un crédito o no. Con esto se los obliga a exteriorizar, transparentar los modelos, el entrenamiento y las posibles discrepancias con la realidad y el contexto”, detalló.

Apocalípticos e integrados

Muchas personas toman consciencia del peligro que conlleva la cesión de datos a las empresas que trabajan con esta tecnología pero al mismo tiempo se sienten encerradas en la lógica de funcionamiento del mundo actual. Las redes se han insertado en el entramado social de manera tal que no formar parte de las mismas margina al ciudadano. Si necesito estar en las redes para trabajar, para comunicarme con mis conocidos y con mi familia, elegir usarlas o no ¿Es una elección libre?

Foto: Si necesito estar en las redes para trabajar, para comunicarme con mis conocidos y con mi familia, elegir usarlas o no ¿Es una elección libre? Fuente: Télam.

Al respecto Bionda expresó: “Si tenés Facebook o Instagram y has etiquetado amigos alguna vez, estuviste trabajando gratuitamente porque cada vez que lo hacías estabas entrenando de modo gratuito un algoritmo que Meta estaba preparando para vender a los gobiernos y a las empresas multinacionales con el objetivo de desarrollar la identificación antropobiométrica de los individuos. Meta estuvo durante años trabajando en ese proyecto a costa de la red que atrapa a sus usuarios. Es muy difícil desvincularse voluntariamente y  cerrar todas las redes porque hay vínculos laborales y económicos que ingresaron en la ecuación”.

“Sin embargo, es posible vivir sin las redes o hacer un uso consciente de las mismas. Yo no utilizo plataformas de redes sociales, pero no soy una persona que desconoce las bondades de la digitalización. Integro el primer organismo jurisdiccional de América Latina sin muros, he replicado en ecosistemas digitales todo el servicio que presto de modo analógico, y con el personal hace un año que no nos vemos. Conozco la potencia que tiene la tecnología para optimizar ciertas cosas pero tengo también la información que me permite no entregarme ciegamente ni de modo absoluto a este sistema. Es fundamental acercar información a los jóvenes para que puedan tomar una decisión crítica y consciente a la hora de comenzar a utilizar las redes sociales. Los ciudadanos tienen que entender que la privacidad es colectiva y que en tus redes sociales podés llegar a exponer involuntariamente mi intimidad”, dijo.

Por otro lado se refirió a que las personas tenemos que tener derecho a ser analógicas y expresó: “Estoy trabajando en un concepto, un nuevo derecho humano de quinta generación, que es el derecho humano a ser analógico. Este derecho tenemos que exigirlo porque hay empresas que buscan personal para trabajar solo de forma digital y no debería ser en detrimento de quienes no usan las redes sociales. Las empresas prestadoras de servicios tienen que tener un delegado que actúe e interactúa presencialmente, tienen que proporcionar atención cara a cara. Hay gente que está excluida de estos ecosistemas digitales, absorbidos por la brecha digital. El artículo 27 de la ley de defensa del consumidor  establece que para todo lo que es  prestación de servicios públicos, las prestatarias tienen que garantizar atención personalizada. Esto no significa prestarte atención especial, significa darte la posibilidad de que te atienda una persona cara a cara”, concluyó.

El lenguaje es el sistema operativo de la cultura

Intentar detener el avance de la tecnología no solo sería la forma incorrecta de encarar la problemática, sino que sería además una forma ingenua de abordarla. Al respecto, Bionda manifestó: “Hay algo que es cierto y es que no se puede detener la historia. Pero tenemos que prestar mucha atención en la puerta que le abrimos a esta tecnología. El lenguaje es un poco el sistema operativo de la cultura humana. El lenguaje es una de las cosas que nos distinguen primordialmente de las demás especies, la posibilidad de comunicarnos a través de un código común nos permite organizarnos y colaborar a gran escala, incluso planetaria.

De nuestro lenguaje surgen los mitos, surge la ley, surgen los dioses, hasta el código informático surge del lenguaje. Dejar el dominio del lenguaje en manos de la IA es habilitarle la posibilidad de piratear y manipular ese sistema operativo, el sistema operativo de la civilización. Estamos dando el poder, la capacidad de manipular y generar lenguaje con palabras, aunque también con imágenes, sonidos y videos a una inteligencia con capacidades que excede a lo humano en la generación de nuevos artefactos culturales”.

Foto: Obra generada por IA que ganó un premio en un certámen de obras de arte. Fuente: Jason Allen’s A.I.-generated work, “Théâtre D’opéra Spatial”

“La interacción entre las personas y la realidad está mediada por la cultura, hay un prisma cultural que moldea tu percepción, a través de circunstancias vitales de amigos, familiares, el arte, libros, opiniones de comunicadores.  Hay todo un plafón cultural que intermedia entre la realidad y tu concepción de la realidad. Ese capullo cultural en el que nosotros  estamos inmersos desde que nacemos y durante toda nuestra vida, hasta ahora había sido tejido por otros humanos. El problema es que dimos un salto cultural y hemos caído en un prisma que está producido  por una IA no humana. Cada vez que entras en las redes te encontrás con ese capullo cultural zurcido, cocido por IA que te lleva a ver realidades muy distintas a las realidades de otros que se encuentran en la misma red social porque quieren torcer tu voluntad. Se está generando una cortina de ilusiones que podría descender sobre toda la humanidad y es posible que nunca más podamos romper esa cortina o incluso lleguemos a no darnos cuenta que estamos detrás de ella”, agregó.

Finalmente, Bionda expresó su preocupación frente al avance desregulado de la IA y dijo “Las redes eligen mostrarme un mundo hecho a mi medida porque ya sabe por dónde va mi conducta y es responsable de la creciente polarización social que atravesamos. Durante la pandemia los algoritmos socavaron  la salud mental y deshicieron la democracia. Hoy los gobiernos democráticos no son los que conducen los destinos de los Estados y los datos son el petróleo de la actualidad”.

También puede gustarle...

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *