Cómo funcionarían las sociedades administradas solamente por IA

(Imagen: UNIR)

El avance de la inteligencia artificial volvió a generar debate luego de las declaraciones del ministro de Desregulación y Transformación del Estado, Federico Sturzenegger, sobre la posibilidad de crear sociedades manejadas por agentes de IA. El planteo abrió interrogantes sobre el funcionamiento de estas herramientas, el vacío legal que existe alrededor de su desarrollo y el impacto que podrían tener sobre el empleo y la economía global.

Para profundizar sobre el tema, desde Portal Universidad dialogamos con Federico Álvarez Larrondo, doctor en Derecho, especialista en inteligencia artificial y docente en la materia, quien explicó cómo funcionan los agentes de IA, qué desafíos jurídicos generan y el futuro de la misma.

Agentes I.A, responsabilidades y daños

Los agentes de inteligencia artificial representan una evolución respecto de las herramientas generativas tradicionales, porque pueden actuar de manera autónoma una vez que reciben una instrucción inicial. “El agente de IA tiene la capacidad para tomar decisiones por sí solo una vez que se le encomienda una tarea. No es reactivo, sino que una vez que se le da esa instrucción se vuelve proactivo. A ChatGPT le pido preguntas, cada vez que me da una respuesta yo le tengo que volver a hacer una pregunta. En cambio, el agente de IA, una vez que nosotros le pedimos una tarea, comienza a moverse de manera autónoma”, detalló Larrondo.

Para ejemplificarlo, describió cómo podría actuar un agente programador: “Va a la página web, busca la página de la Corte, completa campos, ingresa, busca precedentes, lee documentos, hace una síntesis y elabora un resultado. Lo que empezamos a ver es que, si bien tienen una primera instrucción dada por un humano, a partir de ahí el agente de IA va resolviendo problemas de manera autónoma”.

Con respecto a las responsabilidades y daños en torno a una sociedad sin intervención humana, el Álvarez Larrondo advirtió que: “Empiezan a mostrar una autonomía que también tiene su lado oscuro porque puede generar supuestos de responsabilidad por daño que vos no controlaste. La preocupación es que estas estructuras terminan funcionando como mecanismos para fragmentar o limitar responsabilidades. Entonces el daño lo paga la sociedad creada alrededor del agente, pero detrás ya no hay una persona humana claramente identificable que responda. Eso rompe con muchas de las estructuras tradicionales sobre las que se organizó históricamente el derecho”.

Vacío legal y rol de los Estados

El principal problema actual es que las regulaciones avanzan mucho más lento que la tecnología. “La única ley importante que tenemos hoy a nivel global es el reglamento de inteligencia artificial de la Unión Europea, pero empezó a escribirse en 2021, cuando todavía ni siquiera el mundo sabía el impacto que iba a tener ChatGPT. Cuando se aprobó la ley, los agentes todavía no habían nacido a la luz”, apuntó.

Además, remarcó que muchas empresas liberan modelos de IA sin controles estatales previos y que “cuando una empresa libera un modelo en la red, en realidad corre en un mundo paralelo que no tiene fronteras ni límites. Los Estados muchas veces ni siquiera comprenden qué es lo que está sucediendo en ese mundo”. Y agregó que “mientras que los que pueden hacer una bomba atómica se cuentan con los dedos de la mano, hoy cualquiera puede generar agentes de IA desde su casa sin ningún tipo de límite”.

En tanto a la cuestión tributaria, el abogado explicó: “Lo que plantea no es muy distinto a lo que hoy hacen países como los Países Bajos con empresas como Uber. La aplicación de viajes se radica en Países Bajos y todo lo que recauda a nivel global tributa ahí con una tasa muy baja. La plata de los viajes va primero a Holanda, paga impuestos allá y después vuelve a los distintos países”.

En esa línea, indicó que “la idea sería que empresas de todo el mundo constituyan sociedades con agentes adentro en Argentina y que todo lo que recauden tribute acá, quizás con una tasa mínima. Desde una mirada económica, eso podría generar un incremento enorme de la recaudación sin necesidad de producir nada material. Podés terminar generando una economía llena de sociedades manejadas por IA donde ya no queda claro quién responde frente a daños, contratos o decisiones tomadas por esos sistemas”.

Sociedades manejadas por I.A

A través de la propuesta de crear sociedades administradas por agentes de inteligencia artificial se podría generar estructuras empresariales difíciles de controlar, adivirtió: “Lo que podemos empezar a ver es la aparición de las mamushkas: sociedades constituidas por agentes que constituyen sociedades de agentes, que esas constituyen sociedades de agentes y así. Entonces se empieza a llenar la economía de sociedades sin manos”.

Asimismo, Larrondo observó que “lo que puede empezar a darse es que las sociedades conformadas por humanos empiecen a convertirse en un porcentaje menor dentro del total de la economía. Es un experimento del que todavía no sabemos cuáles pueden ser las consecuencias, porque estamos entrando en escenarios completamente nuevos, donde los agentes no solamente ejecutan órdenes, sino que interactúan, producen contenido y toman decisiones dentro de ecosistemas propios”.

“Estamos creando algo que empieza a tener una inteligencia distinta. Yo no digo comparable con la humana, pero sí una enorme capacidad de resolución de problemas. Y con la autonomía que empieza a adoptar, se vuelve una incógnita y un desafío para los seres humanos”, indicó.

El avance incontrolable de la I.A

Impacto en la economía y en el empleo

El impacto que la inteligencia artificial ya está teniendo sobre distintos sectores laborales, especialmente en tareas de base y en la industria del software. “Los primeros estudios muestran que los trabajos más afectados son los de ingreso al mercado laboral, porque son los que los agentes de IA pueden hacer con mayor facilidad. El segundo grupo que está sufriendo es el de los codificadores”, explicó.

En ese marco, Larrondo contó sobre los propios desarrolladores advierten sobre el crecimiento acelerado de la IA: “En el Foro de Davos de este año hubo una suma de recomendaciones y llamados de atención por parte de los tipos que están haciendo estos desarrollos. Darío Amodei, creador de Claude, dijo: ‘Señores estados, pónganse las pilas porque en dos o tres años tenemos una crisis de empleo’. Después Elon Musk planteó que en el futuro trabajar va a ser opcional y una suerte de hobby”.

“Lo que ellos mismos están diciendo es que la IA está empezando a adquirir capacidades superiores a lo normal y que los Estados no están reaccionando a tiempo”, sostuvo.

Además, el especialista planteó: “Empieza a haber una economía de la virtualidad que va ocupando espacios cada vez más grandes. Ya vemos avatares que no existen generando ingresos, modelos virtuales de OnlyFans, grupos musicales creados completamente con IA y hasta cortometrajes hechos sin actores ni locaciones reales”.

Inteligencia Artificial

Regulaciones estatales

Sobre el rol que tienen que tener los Estados para establecer límites y estándares comunes sobre el desarrollo de inteligencia artificial, Larrondo detalló: Los últimos encuentros que se han hecho a nivel global van rumbo a la idea de crear organismos supranacionales que establezcan estándares y límites al desarrollo de la IA. Trump plantea que la única manera de superar a China y ser líderes en materia de IA es no regulando absolutamente nada”.

“Lo que tiene que haber acá, no hay duda alguna, es una ralentización del desarrollo de la IA y acuerdos globales para establecer límites y estándares internacionales. Cuando el agua empiece a llegarnos al cuello, este tipo de soluciones van a aparecer necesariamente, porque se van a dar cuenta de los peligros que tiene una IA desatada”, concluyó sobre la ciberseguridad y desarollo tecnológico.

También puede gustarle...

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *