¿Pueden las humanidades coevolucionar con los humanos (y las máquinas)? Inteligencia artificial, sociedad artificial y los desafíos para las ciencias sociales

¿Pueden las humanidades coevolucionar con los humanos (y las máquinas)? Inteligencia artificial, sociedad artificial y los desafíos para las ciencias sociales

El trabajo presenta las múltiples dimensiones que puede tener el análisis de la IA y varios de sus conceptos vinculados, desde una perspectiva que se concentra en la vida social y en el mundo que es construido por y para las personas en la actualidad.

| Por Flavia Costa y Julián Mónaco |

En junio de 2023, la revista Time publicó una tapa enteramente roja con el título de catástrofe “The end of humAnIty. How real is the risk?” [“El fin de la humAnIdad. ¿Cuán real es el riesgo?”] que funcionaba como puerta de entrada a un informe especial dedicado a los desafíos y riesgos asociados al despliegue de la inteligencia artificial (IA) y, en particular, de la IA generativa (IAG). “La ventana de aquello que la IA no puede hacer parece estrecharse semana a semana”, afirmaba en una de esas notas la experta en seguridad de IA Katja Grace.

Como campo de investigación, la IA tiene más de 70 años: su puesta en marcha coincide con la Segunda Guerra Mundial y el origen del término obliga a remontarse a la década de 1950, cuando en los Estados Unidos se comenzaron a investigar y desarrollar sistemas capaces de replicar o emular ciertos comportamientos humanos considerados inteligentes: memorizar, computar, aprender de los propios resultados, proyectar tendencias. Ha sido, sin embargo, sobre todo durante la última década que los avances en este ámbito generaron tecnologías que se comparan o superan a los seres humanos en tareas que requieren creatividad, razonamiento complejo e involucran incluso la toma de decisiones. Y que tienen el potencial de afectar a distintos sectores del trabajo y de la producción de conocimiento.

En aquel dossier publicado por Time, el especialista en política internacional Ian Bremmer sintetizaba algunos de los principales desafíos que las sociedades enfrentarán en los próximos años ante la popularización del uso de IA generativas. Teniendo en cuenta que “la salud de la democracia y los mercados libres depende del acceso a información precisa y verificable”, señalaba Bremmer, la IA se sumará a las dificultades que ya vienen planteando las redes sociales para distinguir la realidad de la ficción: “Las falsificaciones de audio y video cada vez más sofisticadas –decía– socavarán nuestra ya disminuida confianza en quienes trabajan en los gobiernos y quienes informan”. Agregaba otros riesgos, como el uso por parte de Estados autoritarios de herramientas de vigilancia masiva, o la proliferación de contenidos generados por IA en manos de “delincuentes, terroristas y otros malos actores” que podrían “crear armas biológicas, manipular los mercados y distorsionar la opinión pública” con relativa facilidad. Finalmente aseguraba que la IA “puede exacerbar la desigualdad dentro de las sociedades (favoreciendo a pequeños grupos con riqueza, acceso o habilidades especiales), así como entre naciones más ricas y más pobres”.

El informe de la revista estadounidense se hacía eco de una alerta emitida por el propio campo de la IA. El 30 de marzo de 2023, la organización no gubernamental Future of Life había publicado una carta firmada por investigadores y empresarios (entre ellos el cofundador de Apple, Steve Wozniak; el historiador Yuval Harari; el ceo de SpaceX, Tesla y Twitter, Elon Musk y el inversor en IA Ian Hogarth) que llamaba a pausar por “al menos seis meses” el entrenamiento de sistemas de IA superiores a chat Gpt-4, de la firma OpenAI.

Esta carta desató una alerta en la opinión pública global que incentivó y, donde ya estaba en marcha, profundizó una suerte de “furor normativo” con respecto a la IA, con los ojos de buena parte de Occidente puestos en la ley de la Unión Europea (la única vinculante hasta el momento, y basada en una clasificación de los riesgos de la IA). En noviembre de ese año, Gran Bretaña impulsó la primera Cumbre sobre Seguridad (safety) de la IA nada menos que en Bletchley Park, donde durante la Segunda Guerra Mundial Alan Turing descifró el código de la máquina Enigma, de los nazis. Inmediatamente después creó el AI Safety Institute, la primera organización respaldada por un Estado dedicada a probar la seguridad de la IA avanzada y medir sus impactos en las personas y la sociedad.

Como vemos, fue de hecho la puesta en circulación masiva de los Grandes Modelos de Lenguaje (LLM, por sus siglas en inglés), capaces de simular con asombrosa eficacia habilidades comunicativas en muy diversas lenguas, la que acabó de colocar en primer plano un nuevo tipo de problema de escala planetaria: ¿qué implicaciones tiene para los distintos sistemas que habitamos (desde la política hasta la salud, pasando por la educación y el trabajo) la creación de sistemas técnicos capaces de desarrollar buena parte de las actividades que los humanos realizamos a través del lenguaje –y que en muchos casos son ocupaciones remuneradas y/o protegidas por derechos–? Si entre las particularidades del momento actual está el hecho de que convivimos con esta clase de sistemas sociotécnicos, una de las tareas urgentes de la época es abordar, tanto a nivel nacional como regional y global, esa pregunta y formular respuestas realizables.

Lógicamente, será una tarea sembrada de conflictos. El primer aporte de las ciencias sociales aquí será recordar que no se trata de dirimir el futuro de “la especie humana” en relación con las tecnologías avanzadas, sino de planificar y, como suele decirse, gobernar el futuro del desarrollo de sistemas sociotécnicos complejos en el marco de sociedades, clases, poblaciones y grupos humanos en relativo pero persistente conflicto de intereses. Y es razonable prever que si no la emprendemos pronto, el desarrollo desigual de estas tecnologías profundizará aún más los procesos de estratificación e inequidad en marcha.

Por su parte, la opacidad tanto técnica como social y política de estos sistemas; su imprevisibilidad, asociada a la complejidad interactiva que los caracteriza; la creciente cantidad de decisiones que aparecen mediadas por alguna forma de evaluación algorítmica automatizada (sistemas de recomendación, puntuación de crédito, predicción de pérdida de clientes, formulación “automática” de políticas públicas) plantean la pregunta acerca del sentido, la conveniencia y las consecuencias de una “automatización” y “artificialización” de lo social.

Para las ciencias sociales se ha vuelto imperativo afrontar estas cuestiones si es que quieren participar de pleno derecho en una conversación que las concierne de manera íntima en cuanto a su objeto, la vida social, pero que en la práctica las marginaliza en cuanto saberes expertos. Los modelos institucionales de gobernanza de IA suelen invocar cuatro grandes ámbitos que participan de las deliberaciones: gobierno, industria, sistema de ciencia y tecnología, sociedad civil. Donde los expertos del ámbito “ciencia y tecnología” nunca son expertos en ciencias sociales (acaso algún referente de ética o de ciencias jurídicas), quienes por lo tanto deben conformarse con participar en tanto que asesores del gobierno o voceros de la “sociedad civil”.

Entre otros esfuerzos, este escenario les exigirá revisar parte de sus marcos teóricos y epistemológicos. Por ejemplo, tomar distancia de las perspectivas que identifican la dimensión tecnológica como meramente herramental, ante la evidencia de que este mundo digital en y con el que interactuamos no es un instrumento más, sino un verdadero ambiente, un ecosistema. Asimismo, en la medida en que estas tecnologías se aplican a la toma de decisiones en diferentes ámbitos (públicos y privados, académicos, gubernamentales y empresariales) e influyen de manera decisiva en las prácticas y en las estructuras de la sociedad; en la medida en que, así también, crean nuevos espacios y hábitos de producción, distribución y consumo de bienes, servicios y significaciones, las ciencias sociales deberán dar la pelea por no ser solo usuarias o implementadoras de IA, sino también por tomar parte en los ámbitos de desarrollo y auditoría de estos sistemas. Y esto a su vez demandará fomentar experiencias de investigación y desarrollo interdisciplinar, con énfasis en la combinación entre estudios teóricos y laboratorio de prácticas.

Existieron y todavía existen, son parte de nuestras tradiciones de investigación, unas ciencias sociales para las sociedades de masas; unas ciencias sociales para la sociedad de la globalización multicultural; en la Argentina, unas ciencias sociales para la recuperación democrática y también para el post-2001. Ahora mismo nos corresponde pensar las ciencias sociales para una sociedad inmersa en ecosistemas sociodigitales complejos; un tipo de pensamiento no está garantizado si no se lo produce y que exigirá un gran esfuerzo de imaginación teórica, epistemológica y política.

Una perspectiva analítica

Entre junio y octubre de 2023, los integrantes del TecnocenoLab y otros investigadores especialmente convocados realizamos una investigación exploratoria pero intensiva a solicitud de la Facultad de Ciencias Sociales de la UBA para el Programa Argentina Futura, de la Jefatura de Gabinete de Ministros. Buscábamos sistematizar la información existente acerca de las iniciativas en materia de políticas y regulaciones para la IA que se estaban desarrollando en la Argentina en ese momento, ponerlas en relación con otras iniciativas internacionales y ofrecer un conjunto de recomendaciones de políticas públicas con especial foco en los riesgos de las IA para la calidad democrática.

En ese marco, nos propusimos delimitar una perspectiva analítica adecuada para abordar este novedoso objeto de indagación. Y lo primero que advertimos fue que, cuando analizamos las IA generativas y los LLM desde un enfoque que tiene como epicentro a las ciencias sociales y humanas, si bien podemos referirnos a estos enormes conjuntos técnicos como Inteligencia Artificial, también podríamos denominarlos Sociedad Artificial.

Veamos esto un poco más de cerca. Muy esquemáticamente, los elementos básicos de estos sistemas de IA son tres: (1) una enorme capacidad de cómputo (a grandes rasgos, la capa del hardware); (2) un conjunto de métodos de procesamiento de información (aprendizaje profundo, redes neuronales, etc.; las capas del software y de las aplicaciones de IA) y (3) grandes conjuntos de datos (materiales “de la vida social”, obtenidos en buena medida a través de plataformas; las capas de input). Es decir: su alimento son los propios intercambios lingüísticos en diferentes idiomas, las figuras retóricas, las acciones y reacciones emocionales que movilizamos en esos intercambios, las relaciones sociales que se producen en diversas culturas, las instrucciones y objetivos que orientaron el entrenamiento.

Si miramos de cerca el tercero de estos elementos –el enorme volumen de datos masivos y su tratamiento para volverlos operativos– es heterogéneo respecto de los dos anteriores. Si los elementos 1 y 2 son el producto de desarrollos históricos de la informática, la ingeniería de sistemas y la computación, el estudio y el trato con el elemento 3 es el dominio de las ciencias del lenguaje, las ciencias de la comunicación, la sociología, la ciencia política, el derecho. En efecto, las IA generativas y los LLM no son una herramienta más: son procesadores que analizan y gestionan nuestros actos lingüísticos y una parte no insignificante de nuestros modos de relacionarnos socialmente. Lo que estos sistemas sociotécnicos complejos hacen es acelerar el análisis, la gestión y la (re)producción de lo social. Procesan sociedad.

El modo de procesamiento de ese material es, ya es sabido, probabilístico, estadístico. El moderno término “estadística”, del italiano “statista”, “hombre de Estado”, es bien conocido entre quienes provenimos de las ciencias sociales, y nos recuerda que, al menos desde el siglo XVII, hay una alianza entre saberes matemáticos y sociales para constituir una disciplina capaz de estudiar la variabilidad de los acontecimientos siguiendo las leyes de la probabilidad: una “aritmética política” –según el recordado libro de William Petty, de 1690– que tiene como objeto principal a las poblaciones.

Sugerimos entonces comenzar a pensar en estas tecnologías en tanto que Sociedad Artificial, dado que entre sus potenciales outputs está la facilitación de la toma de decisiones en áreas críticas; en la medida en que aceleran el análisis y la gestión de las relaciones sociales; y en la medida en que nos permiten, además, ver correlaciones que los humanos no seríamos capaces de registrar.

Un segundo punto a considerar es que las IA, en tanto integran y expanden el ecosistema digital, constituyen no una herramienta o dispositivo técnico, sino que –particularmente después del shock de virtualización que implicó la última pandemia (Costa, 2021)– han comenzado a ser para nosotros un mundoambiente. Las tecnologías del ecosistema digital están dejando de ser instrumentos que podemos elegir usar o no, y se han vuelto indispensables para realizar actividades cotidianas como guiarnos en una ciudad o iniciar un trámite de documentación obligatoria (Zuboff, 2020). Esto significa que, en relación con los usuarios, no es suficiente un enfoque que las aborde desde la perspectiva de la instrumentalidad y de la relación sistema-usuario individual, como si cada usuario pudiera decidir qué hacer en cada caso con la IA: necesitamos un enfoque sistémico, atento a las dinámicas multiescalares de la economía política del ecosistema digital.

El tercero se relaciona con el anterior y, en la búsqueda de un enfoque adecuado, sigue la perspectiva asumida en reglamentaciones recientes como la Ley de Inteligencia Artificial de la Unión Europea (2023), o la del grupo de expertos en IA de la Organización para la Cooperación y el Desarrollo Económico (OCDE). En estos y otros casos se afirma que, para ciertos usos que involucran áreas críticas para la población humana (acceso a la justicia, a la educación, a la salud, a la protección de la privacidad), la IA es una tecnología de alto riesgo. Por lo tanto, requiere un tratamiento acorde a lo largo de todo su ciclo de vida. Es preciso distinguir cuáles son esos usos y abordarlos con la perspectiva sistémica de la seguridad, la gestión de riesgos y la investigación de accidentes e incidentes. Una perspectiva que se orienta no tanto a la búsqueda de responsables (esa es la perspectiva jurídica, que busca culpables e impone sanciones o resarcimientos) sino a la detección de fallas en las defensas de los diversos subsistemas, y que emite recomendaciones para que esas fallas no vuelvan a suceder. La filosofía que la anima podría sintetizarse en la idea de que, si vamos a habitar mundoambientes digitales, estos deben ser confiables y seguros (safe) para la vida democrática.

El cuarto tiene que ver con cuáles son los ámbitos expertos que deben tratar con estas tecnologías. En referencia a esto, es posible señalar dos cosas. Por un lado, si el ámbito experto que se ocupa de las IA es única o principalmente el subconjunto de las ciencias de la computación, la ingeniería y las ciencias informáticas, corremos el riesgo de perder la profundidad de campo lograda a lo largo de la historia de las ciencias sociales para tratar adecuadamente con datos de poblaciones humanas desde una perspectiva de derechos, que es lo que permitiría que estos sistemas sean verdaderamente robustos y confiables.

Algo que hemos observado en nuestra investigación es que los expertos que provienen de las ciencias informáticas y las ingenierías suelen identificar como su principal (y a veces único) interlocutor en el campo de las ciencias sociales el derecho. Es su punto de exterioridad y su límite: el establecimiento de normas que regulen la práctica. Si se traspasa el límite establecido, habrá una sanción. Pero el derecho actúa a posteriori del incidente. Y si entendemos que en algunos casos las tecnologías de IA pueden ser de alto riesgo, la aseguración (safety) debe ser preventiva; debe estar inscripta en el propio sistema. En los sistemas sociotécnicos complejos, la evaluación de riesgos y el monitoreo de seguridad es parte de todo el ciclo de vida del sistema. Con todo, dado que la seguridad de la IA es un campo emergente, será importante seguir de cerca, por ejemplo, el relevamiento que está llevando adelante el monitor de incidentes de IA que en 2023 puso en marcha la OCDE.

Otro territorio en el que las humanidades y las ciencias sociales han participado en la conversación pública es el de la ética de la IA. Desde esa perspectiva se establecen recomendaciones, buenas prácticas, lineamientos habitualmente voluntarios acerca de lo deseable en relación con el desarrollo y la implementación de las IA, como en el caso de la Recomendación sobre la Ética de la IA de la Unesco (2021).

Ahora bien, si las IA y el ecosistema digital ya no solo son herramientas sino un mundoambiente, y por ende, si la relación con ellos no es tanto una relación instrumental sino de inmersión sistémica; si aceleran el procesamiento y la gestión de lo social, y pueden ser de alto riesgo en áreas de experiencia críticas para la población, la perspectiva que necesitamos va más allá de las recomendaciones voluntarias y los códigos de buenas prácticas, y a su vez debe complementar el enfoque de la responsabilidad de la persona física o jurídica con el enfoque de la seguridad sistémica.

Como dice Brent Mittelstadt (2019), “puede ser necesario establecer el desarrollo de la IA como una profesión con una categoría equivalente a otras profesiones de alto riesgo. Es una rareza regulatoria que otorguemos licencias a profesiones que brindan un servicio público, pero no a la profesión responsable de desarrollar sistemas técnicos para aumentar o reemplazar la experiencia humana y la toma de decisiones dentro de ellos. Los riesgos de las profesiones autorizadas no se han disipado, sino que han sido desplazados a la IA” (2019).

De manera afín, Ariel Vercelli sugiere “superar los comités de ética y ofrecer a la sociedad una discusión más amplia, abierta y democrática sobre IA”. Desde su perspectiva, se requieren procesos de co-construcción entre tecnologías y regulaciones; esto es, “desarrollar tecnologías (incluso para fines regulativos: control y gestión del tiempo, el espacio y las conductas)” (2023).

De allí que para afrontar los tipos emergentes de IA desde las ciencias sociales y humanas, para que su gobernanza sea eficaz, es preciso complementar la ética con un enfoque sistémico, que reponga, allí donde hay alto riesgo, las mediaciones institucionales que la aceleración se saltea, que establezca procedimientos de revisión transparentes, estructuras de rendición de cuentas vinculantes, documentación de modelos y conjuntos de datos y auditoría independiente. En suma: defensas en profundidad para que convivir e incluso coevolucionar con las IA sea más seguro y confiable.

“Conocer es organizar”: una agenda de investigación para la Argentina y la región

Poder intervenir en el ecosistema digital y de las IA requiere cartografiar un territorio complejo y multicapas. Por un lado, esta perspectiva convoca a las ciencias sociales y humanas del siglo XXI a ingresar de lleno en el “giro materialista”: dejar de lado la supuesta “desmaterialización” asociada con las tecnologías digitales y formularse la pregunta por las materialidades (cables submarinos, infraestructura de nube, servidores, satélites, minería de tierras raras) y enfocar la dinámica geopolítica de las luchas por los diferentes extractivismos que la componen (desde el de minerales raros hasta el de datos), así como cartografiar la economía política del ecosistema de datos, algoritmos y plataformas.

El segundo tema de esta agenda es el reverso del primero: la pregunta por los restos y las huellas del desarrollo. Pensemos, por ejemplo, en las cinco “islas de la basura” que recorren los océanos del mundo; la del Pacífico Norte es hoy tan extensa como la superficie del Perú. O en las “zonas de sacrificio” del capitalismo informacional transnacional. Regiones geográficas enteras están permanentemente sujetas a daño medioambiental y falta de inversión. La tarea aquí se extiende desde la medición de esas huellas, la planificación sobre el modo de minimizar el daño, y hasta la decisión de impulsar, parafraseando a Benjamin Bratton, una “terraformación de la Tierra” (mucho antes que de la Luna o de Marte), buscando el modo de intervenir para hacer, de las ruinas, un hogar.

El tercero reconduce la pregunta por las huellas hacia la trazabilidad y el gobierno de los vivientes. Desde hace poco más de una década convivimos con la asombrosa posibilidad de cruzar las huellas comportamentales y las huellas biométricas de los habitantes del mundo digital, inscriptos en una verdadera “cultura de la vigilancia” no elegible, ubicua y distribuida. Aquí se abren preguntas de investigación relevantes, como cuánto dicen de nosotros estos datos, y qué grilla de inteligibilidad se nos propone acerca de nosotros mismos: ¿somos un conjunto de datos?, ¿somos nuestros comportamientos?

El cuarto tema son los desafíos de la aceleración digital. En un país como la Argentina, cuyos habitantes de entre 16 y 64 años pasan en promedio 9 horas diarias en internet, según datos de enero de 2023 de la agencia internacional We Are Social (y lo mismo ocurre en los otros países de la región analizados: 9 horas en Colombia; 8.30 horas en Chile; 8.01 horas en México), es una cuestión crucial. ¿Cómo impacta en nuestras vidas –en el trabajo, la educación, en la salud– esa aceleración digital?

El quinto tema es el de los accidentes propios de estas tecnologías de alta complejidad con las que convivimos. Los nuevos accidentes sistémicos del Tecnoceno son generales por su extensión geográfica; multiescalares –afectan desde la escala doméstica hasta la planetaria–; transversales –requieren experticias muy diferentes para hacerles frente–; y, en algunos casos, afectan a víctimas de cuarta instancia –no nacidas en el momento del accidente–. Los potenciales incidentes de IA que afectan la calidad de la vida democrática son múltiples: desde la vigilancia masiva hasta el deep fake, desde la multiplicación de los sesgos y la infrarrepresentación de las minorías hasta la manipulación maliciosa del comportamiento, la calificación social a través de métodos algorítmicos y las crecientes desigualdades epistémicas. ¿Cómo recabamos e identificamos los incidentes de IA a tiempo? ¿Cómo los estudiamos? ¿Cómo los anticipamos y “capturamos el error” para minimizar su impacto? No es una tarea solo para los expertos en informática, sino para equipos interdisciplinarios expertos en Sociedad Artificial.

Palabras finales

No es impensable que en el futuro, en retrospectiva, recordemos estos años como un tiempo transcurrido “entre accidentes”: entre la pandemia provocada por el Covid-19 y las controversias sobre los desafíos –incluido el “riesgo existencial”– que conllevan los nuevos tipos emergentes de IA. El primero de estos accidentes, debido a las limitaciones de movimiento que implicó, ubicó a buena parte de la población del mundo en la necesidad de ingresar a un “shock de virtualización”. E instaló en la conversación pública la necesidad de interceptarlo a través de un “nuevo acuerdo tecnológico”: un tech new deal para unas nuevas democracias digitales. El segundo, por el momento, ha disparado una enorme cantidad de interrogantes, debido a la fuerza disruptiva con la que parece atravesar las diversas escalas de la experiencia social, y porque la aceleración que imprime a los procesos que automatiza se manifiesta, al menos en un primer momento, como un impulso de “destitución” de muchas de las mediaciones que constituían hasta hace poco lo social. Para las ciencias sociales esta apertura temporal es un momento de gran potencial heurístico. ¿Serán nuestros saberes sobre lo social capaces de afrontar la sociedad artificial del siglo XXI?


Bibliografía de referencia

Costa, F. (2021). Tecnoceno. Buenos Aires, Taurus.
Costa, F. et al. (2023). “Desafíos de la Inteligencia Artificial Generativa”, en Question, vol. 3, Nº 76, dossier “La Inteligencia Artificial en debate: reflexiones para generar”, La Plata.
Mittelstadt, B. (2019). Principles alone cannot guarantee ethical AI. Nat Mach Intell 1, 501-507. https://doi.org/10.1038/s42256-019-0114-4.
Vercelli Ariel (2023). “Las inteligencias artificiales y sus regulaciones: Pasos iniciales en Argentina, aspectos analíticos y defensa de los intereses nacionales”, en Revista de la Escuela del Cuerpo de Abogados y Abogadas del Estado, mayo 2023, Año 7 Nº 9, Buenos Aires, Argentina (ISSN 2796-8642), pp. 195-21. En internet: revistaecae.ptn.gob.ar/index.php/revistaecae/article/download/232/213/548
Zuboff, S. (2020). La era del capitalismo de la vigilancia, Barcelona, Paidós.

Autorxs


Flavia Costa:

Licenciada en Ciencias de la Comunicación y Doctora en Ciencias Sociales por la Universidad de Buenos Aires. Investigadora del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET). Es docente de grado y posgrado y miembro del TecnocenoLab.

Julián Mónaco:
Licenciado en Ciencias de la Comunicación y Magíster en Comunicación y Cultura por la Universidad de Buenos Aires. Becario doctoral del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET). Docente de grado y posgrado e integrante del TecnocenoLab.