Impactos de la inteligencia artificial sobre la gestión estatal
El autor da cuenta de los principales desafíos y de las potencialidades que enfrentan los gobiernos a nivel mundial, pero sobre todo en la región de América latina, en la implementación de sus políticas en el marco de la actual innovación tecnológica.
Technological singularity es un hipotético punto en un tiempo futuro, en el que el desarrollo tecnológico se vuelve incontrolable e irreversible, resultando en cambios insondables para la civilización humana. En su versión más popularizada, la hipótesis de la singularidad supone que un agente inteligente (v.g., un software de computación basado en inteligencia artificial general, tal es el campo de investigación teórica de la IA, que intenta crear software con inteligencia similar a la humana y con la capacidad de autoaprendizaje) alcanzaría una “reacción incontrolable” a través de ciclos de autosuperación, en los que cada vez más rápidamente aparecerían generaciones nuevas y más inteligentes, causando una explosión de inteligencia que, cualitativamente, superaría de lejos a la inteligencia humana.
Tanto Stephen Hawking como Elon Musk expresaron su preocupación por las consecuencias de singularity, su potencial beneficio o sus catastróficos efectos sobre la raza humana, llegando a plantear que la “inteligencia artificial general” podría llegar a extinguir la humanidad. Iteraciones de mejoras autónomas recursivas podrían acelerarse hasta el punto en que la creación de la primera máquina con capacidad similar a la humana sería la última invención que el hombre necesitaría de ahí en más, siempre que esa máquina fuera suficientemente dócil para informarnos cómo controlarla.
Muchos otros autores han descartado o, al menos, planteado serias dudas acerca de que la humanidad alcance el punto de singularity, aduciendo que las computadoras no tienen inteligencia, ni motivación, ni autonomía, ni agencia (o sea, capacidad que tienen los humanos de transformar sus propias condiciones de vida). La polémica sigue abierta, pero ciertamente la mayoría de los métodos para crear mentes súper- o trans-humanas se relacionan con disciplinas como la bioingeniería, la ingeniería genética, las drogas nootrópicas (o inteligentes), los asistentes de IA, las interfaces directas cerebro-computadora y la transferencia mental. Es aquí donde, además de la intervención de los científicos y tecnólogos, se requiere la intervención estatal a través de políticas públicas activas.
Razones de la preocupación
Macrodatos, analítica de datos, aprendizaje automático, robótica y múltiples aplicaciones tecnológicas, como la cadena de bloques, el internet de las cosas, el reconocimiento de identidad o las impresiones 3D, abren algunos de los interrogantes y dilemas más complejos de la actual era exponencial. Y, en tal sentido, generan una extraña mezcla de excitación, esperanza y temor que, a su vez, plantean serios desafíos en el diseño de políticas públicas responsables que no disuadan los avances tecnológicos, pero que, al mismo tiempo, impidan o desalienten los desarrollos potencialmente riesgosos para la seguridad, la ética, la salud o el bienestar de los ciudadanos.
En lo que concierne a la IA en particular, sus beneficios son innegables. Entre otras cosas, puede mejorar la eficiencia en el uso de energía y la seguridad en las viviendas. En el cuidado de la salud, permite a los profesionales ofrecer tratamientos personalizados a sus pacientes a partir de sus historias clínicas, síntomas y antecedentes genéticos. Los robots y asistentes virtuales alimentados por IA pueden proporcionar servicios de información a toda hora. Sus aplicaciones en materia de seguridad permiten detectar fraudes, identificar amenazas potenciales y predecir desastres naturales. En el transporte, la IA optimiza recorridos, reduce la congestión de tránsito y mejora la seguridad. También en la educación, las herramientas de enseñanza basadas en IA pueden ofrecer experiencias de aprendizaje personalizado con realimentación en tiempo real. Y al automatizar tareas rutinarias y optimizar procesos de gestión, es capaz de reducir costos operativos y aumentar las utilidades. Por último, para no extender el listado, la IA proporciona valiosas inferencias a partir del análisis de enormes masas de datos, permitiendo a organizaciones y personas adoptar mejores decisiones basadas en la evidencia.
Junto a estas indudables ventajas, la IA enfrenta grandes desafíos, que han generado creciente preocupación en las instituciones estatales, organizaciones de la sociedad civil y ciudadanos en general. Pero es el Estado, en sus múltiples roles como empleador, inversor, promotor, regulador o prestador de servicios, el que debería prevenir y orientar estas innovaciones tecnológicas, dada la disrupción que están produciendo en el mundo del trabajo, sus riesgos de generar un asfixiante control social, las pautas culturales aberrantes que puede llegar a naturalizar o el ensanchamiento de la brecha digital que puede crear, entre otras consecuencias negativas. Cuando el acelerador se activa y la velocidad se vuelve incontrolable, es necesario accionar el amortiguador para cambiar el ritmo de la marcha. El Estado es, a veces, el único actor social capaz de cumplir ese doble rol: actuar como acelerador, promoviendo el proceso de innovación tecnológica, pero al mismo tiempo accionar el freno, para redireccionar y regular su marcha.
Como promotor, el Estado puede afectar recursos a través de la inversión o subsidio directo a actividades de I&D, a la formación de recursos humanos o a la creación de instituciones y centros de investigación públicos o mixtos, incluso mediante acuerdos con organismos multilaterales para la canalización de financiamiento o el desarrollo de proyectos multinacionales. Si bien el grado de incertidumbre que rodea al proceso decisorio estatal con relación al rol promotor es alto, lo es quizás más todavía cuando actúa como regulador.
Es que la velocidad del cambio tecnológico es tal, que no permite evaluar claramente sus beneficios frente a sus posibles perjuicios. Una de las mayores preocupaciones generadas por el ritmo exponencial del cambio tecnológico es su impacto sobre el mundo del trabajo, ya que, a diferencia de las revoluciones industriales previas, en que la destrucción de empleos creaba desocupación pero era finalmente compensada por la creación de nuevas ocupaciones, la era actual es menos optimista respecto de la futura, plena sustitución de empleos. Se considera que las dos terceras partes de los niños actualmente en edad escolar, cuando sean adultos desempeñarán puestos hoy inexistentes. Las estimaciones coinciden en que, en 2030, estarán automatizadas entre el 16% y el 30% de todas las ocupaciones. Con certeza, se perderán empleos pesados, repetitivos y de baja calificación, cambiará la jerarquía y retribución de los diferentes tipos de empleo y se modificará la estructura y las modalidades de trabajo, con tendencia a su precarización. Y se prevé que las ganancias de productividad tenderán a privilegiar al capital.
Entre las opciones que se plantean los países del mundo desarrollado se incluye reformular las políticas de empleo para generar nuevas y mayores oportunidades de inserción de trabajadores en el mercado laboral, la revalorización de actividades de interés social y los cambios en el perfil ocupacional del sector público.
Los esfuerzos gubernamentales también tendrán que ser dirigidos a la promoción/regulación de tecnologías específicas. Consideremos, por ejemplo, el caso de las criptomonedas, cuyas promesas llevaron a numerosos países a invertir e innovar en este campo tecnológico. Así, gobiernos de varias naciones ya han adoptado medidas para reducir o eliminar restricciones regulatorias para las industrias que desarrollan estas tecnologías. Existe bastante consenso en considerar que las mismas constituirán la próxima frontera de una economía soportada por internet. Pero para otros, las promesas de bitcoin y blockchain solo responden a la cultura elitista y la perspectiva tech-céntrica de la tecnología disruptiva actual.
Consideremos, como otro ejemplo, la robótica. Es indiscutible que las innovaciones en este campo producen enormes beneficios por sus múltiples aplicaciones. Pero también suponen enormes desafíos no solo para los responsables de adoptar políticas públicas, sino también para los líderes empresarios, la comunidad jurídica, las instituciones académicas y la ciudadanía, en tanto los robots se vayan incorporando progresivamente a la vida social. Sus impactos sobre el mundo del trabajo ya comienzan a percibirse. La robótica militar y sexual despierta enormes inquietudes y ya desvela a los reguladores. En un caso, por sus consecuencias para una renovada carrera armamentista. En el otro, por los impactos sobre la ética, la salud y la cultura de una práctica que roza el terreno del delito.
Además de promotor y regulador, el Estado es también proveedor de servicios, tal vez su rol esencial. Y en este papel la tecnología de la era actual puede ser una aliada o, como en las otras modalidades de intervención, una fuente de dificultades. Y para la prestación de servicios los gobiernos están adoptando la forma de plataformas, imitando al sector privado. Se utiliza el término “gobierno como plataforma” con referencia al ecosistema global de aplicaciones y componentes compartidos, estándares abiertos y sets de datos canónicos, así como a los servicios construidos sobre ellos y sobre los procesos gubernamentales, para brindar servicios a los ciudadanos. De este modo, las plataformas permiten a las agencias gubernamentales evitar los sistemas monolíticos cuyo mantenimiento requiere personal altamente especializado y escaso, además de ganar en velocidad, en capacidad de respuesta y de oferta de servicios que interoperan efectivamente.
Una de las tendencias más novedosas en este campo es el eventual pasaje desde el aclamado one-stop government (o sistema de “ventanilla única”) hacia el no-stop government o, incluso, el government for one o gobierno personalizado. Los desarrollos en materia de IA e interoperabilidad abrieron el campo de la proactividad gubernamental y la posibilidad de proveer servicios públicos proactivos, sin que medie necesariamente una demanda ciudadana. De este modo, la gestión pública tradicional, esencialmente “reactiva”, dio paso a una nueva modalidad “proactiva” que produjo una auténtica revolución en la concepción y la práctica de satisfacer necesidades ciudadanas en la prestación de servicios públicos. Si bien su impacto es todavía limitado, en varios países (v.g., Estonia, Austria, Nueva Zelanda) ya se ofrece este tipo de servicios que, de hecho, invisibilizan al gobierno e impactan favorablemente sobre la predisposición de los ciudadanos a recibirlos, así como sobre la legitimidad gubernamental. Un caso muy difundido y exitoso, que ilustra bien la proactividad estatal, es la provisión por el gobierno de Estonia de subsidios familiares por nacimiento, política también implementada en Austria. Lo habitual en este tipo de prestaciones es que las familias que desean obtener este beneficio, deban realizar varios trámites para probar su elegibilidad para recibirlo, llenar papelería o, incluso, concurrir personalmente a una o más oficinas públicas. Bajo el modelo SPP, la elegibilidad es determinada automáticamente a partir de los registros hospitalarios de nacimientos, que al ser interoperables con otras bases de datos (fiscales, bancarios, de la seguridad social), permiten otorgar el beneficio sin que medie una solicitud explícita. Se trata de un servicio totalmente confiable, que reduce la arbitrariedad o el error humano en la decisión de otorgamiento, es más eficiente, más rápido y requiere menos infraestructura.
Capacidades estatales necesarias
Naturalmente, la contrapartida de innovaciones semejantes es la capacidad institucional del Estado para desarrollar y poner a disposición de la ciudadanía este tipo de servicios. Esa capacidad depende de numerosos factores: a) el esfuerzo de desarrollo tecnológico que pueda desplegar o la promoción de este proceso a través de la regulación del mercado, el financiamiento estatal o los emprendimientos de colaboración público-privada; b) el reclutamiento y los programas de formación y capacitación de personal responsable de alimentar y actualizar, en forma permanente, los datos volcados a las carpetas ciudadanas, respondiendo a la vez a la consultas y propuestas de los usuarios; c) la protección de los datos de los ciudadanos a través de legislación y los controles ejercidos sobre las grandes oligopolios que dominan el mercado de la información y las redes sociales.
Por otra parte, sobre todo en los países en desarrollo, existen al menos otros tres desafíos que deben enfrentan sus gobiernos para avanzar en sus procesos de digitalización. Uno es considerar a internet como un bien público global, promoviendo su expansión para ampliar sus economías de escala, la creación de redes y las externalidades positivas, sea indirectamente a través de la regulación del mercado de oferentes privados o directamente a través de la inversión pública en infraestructura y esquemas colaborativos público-privados. De otro modo, la brecha digital que separa a quienes no tienen problemas de acceso de quienes están excluidos por ser parte de la población vulnerable se ensanchará aún más.
Un segundo desafío es asumir el firme compromiso de fortalecer la ciberseguridad frente al riesgo cierto de que los sistemas informáticos sean hackeados. Está comprobado que el riesgo cibernético está creciendo para las organizaciones en general y los gobiernos en particular, en la medida en que los ciberataques aumentan en volumen, intensidad y sofisticación. El riesgo no es solamente financiero; también entraña la posibilidad de pérdida de confianza ciudadana, además de distraer la atención de la gestión respecto de otros temas prioritarios. Las cifras son inquietantes. En Estados Unidos, el Internal Revenue System (equivalente a nuestra AFIP) sufre cada año más de 1,4 miles de millones de ciberataques, dada la vulnerabilidad de los sistemas de identificación, que facilitan el acceso de los delincuentes cibernéticos a las cuentas de los contribuyentes. La misma herramienta –su programa de revisión de declaraciones juradas basado en IA– le permite identificar billones de dólares en pedidos de reintegro fraudulentos.
El tercer desafío exige adoptar una estrategia que conduzca al reemplazo de los llamados “legados informáticos” (legacy systems), es decir, tecnologías, sistemas o aplicaciones computacionales que han pasado de moda pero aún se encuentran en uso, planteando serios dilemas a los responsables de la gestión pública. Ingentes recursos presupuestarios y de personal son todavía afectados a mantener hardware y software obsoletos. Pero las plataformas sin soporte sobre las que corren pueden incrementar los riesgos de ciberataques y, por su inflexibilidad, no permiten modificar procesos adaptados a las herramientas de IA.
Si bien los países más avanzados están lejos de haber resuelto estos tres desafíos, su importancia es particularmente elevada en los más rezagados. Tampoco son los únicos desafíos a afrontar. También son necesarios consensos regionales para impulsar la rezagada economía digital en América latina en comparación con Europa o Asia. Y a pesar de que se registran algunas experiencias exitosas a nivel de país, para cerrar la brecha digital existente se necesitan mecanismos de coordinación más eficaces que promuevan un mercado regional más competitivo y sostenido que en la actualidad, eviten la duplicación de actividades y la descoordinación entre iniciativas.
Integrar digitalmente a la región requiere, entre otras cosas, homogeneizar los marcos legales, regulatorios y de mercado de las economías nacionales para generar mayor confianza, ampliar los circuitos comerciales y potenciar el intercambio de bienes y servicios comercializados a través de plataformas digitales. Una mayor homogeneidad de los marcos institucionales tendería a derribar las barreras que impiden o dificultan el comercio transfronterizo. Por supuesto, también será necesario mejorar la infraestructura digital con conectividad de alta calidad, aumentar la confianza de los inversores y estimular el uso del comercio electrónico entre los más de 600 millones de consumidores de América latina.
Uno de los mayores desafíos es crear autoridades supranacionales en la región con capacidad de articular eficazmente el mercado digital. Los esfuerzos realizados en los diferentes bloques de integración subregionales no han tenido éxito en promover una visión común y una agenda que incluya prioridades, objetivos, metas, recursos, mecanismos de gobernanza y un cronograma acordado. Y si bien las distintas asociaciones regionales y subregionales han planteado cuestiones vinculadas con la economía digital, no han conseguido acordar mecanismos de coordinación orientados a concretar esa agenda común ni movilizar suficientes recursos financieros y humanos destinados a gestionar tal agenda.
Dejo para el final algunos comentarios sobre el que tal vez sea el mayor de los desafíos: cómo enfrentar el poder adquirido por las grandes corporaciones que hoy dominan el mundo digital. Algunas estadísticas son contundentes. Si se compara la capitalización bursátil de esas empresas y el PIB de los países, en miles de millones de dólares, la relación de fuerzas se inclina claramente en favor de esas empresas líderes. Por ejemplo, el valor del capital bursátil de Amazon es mayor que el PBI de 9 países sudamericanos; el de Microsoft, mayor al de 8 países de Europa del Este; y el de Facebook, superior al de la Argentina. Para colmo, estos grandes conglomerados, como Apple, Amazon o Alphabet, suelen contar con el favor y el apoyo de los consumidores, que tienden a oponerse contra los controles que tratan de imponer los gobiernos sobre ciertos servicios que brindan estas plataformas.
El Al Now Institute es, probablemente, la mayor institución dedicada exclusivamente a combatir el tech power, es decir, el poder concentrado de estos monstruos tecnológicos capaces de sortear con holgura las restricciones que pretenden imponerles, inclusive, los gobiernos más poderosos. En su último informe de 2023, esta institución plantea cuatro prioridades estratégicas que resultan cruciales en la coyuntura actual:
1. Poner en marcha acciones que trasladen la carga de la prueba sobre las grandes compañías para que demuestren que no están produciendo daños, en lugar de hacerlo sobre los usuarios o sobre los reguladores, que continuamente deben investigar, identificar y hallar soluciones para los daños, después que ocurren.
2. Romper los silos existentes en las diversas áreas de política, de modo de que estén mejor preparados para determinar dónde los avances en una agenda de política impactan a otras, ya que las firmas tecnológicas se aprovechan de la ventaja del aislamiento entre áreas y su falta de coordinación.
3. Identificar cuándo ciertas medidas de política son cooptadas o vaciadas por la industria digital, adoptando estrategias acordes con esos comportamientos.
4. Trascender el foco estrecho de las regulaciones específicas y adoptar estrategias que incorporen acciones en otros frentes (v.g. medio ambiente, resistencia de los trabajadores de la industria informática, derechos humanos).
Más específicamente, el AI Now Institute propone una serie de políticas.
● Restringir la ventajas que las firmas poseen en el manejo de datos, limitando su alto grado de concentración, así como su capacidad para recolectar datos sobre consumidores, o para producir datos sobre los mismos (también llamada “minimización de datos”). Además, conectar la legislación sobre privacidad y competencia, que las empresas tratan de que se apliquen por separado. Controlar, asimismo, las posibilidades de fusiones y absorciones de empresas, para detener prácticas abusivas.
● Apoyar reformas que aumenten la competencia y reduzcan la concentración tecnológica. Desconfiar de la retórica desregulatoria basada en la carrera Estados Unidos-China. Implementar legislación antimonopolista más efectiva.
● Regular los modelos en gran escala como el ChatGPT y similares. Aplicar legislación existente para la rendición de cuentas pública del desenvolvimiento de los sistemas de IA generativa, previniendo los riesgos para los consumidores y la competencia. Monitorear de cerca las declamaciones de “apertura”, ya que la IA generativa tiene una dependencia estructural de los recursos, disponibles solo para contadas firmas.
● Desplazar a las auditorías como principal respuesta de política frente a aplicaciones dañinas de IA, dados los reparos que plantea la auditoría algorítmica actual. Las auditorías son insuficientes para afrontar el desequilibrio de poder entre las Big Tech y el público. Son necesarios estándares y metodologías de auditoría algorítmica más claros. Exigir a las compañías que demuestren que sus aplicaciones de IA no entrañan riesgos para los usuarios.
● Diseñar medidas más rigurosas frente al gradual desarrollo de la vigilancia biométrica y sus aplicaciones. Asegurar que la regulación biométrica incluya inferencias más amplias que la simple identificación. Imponer mayores restricciones a la minimización de datos, mediante medidas que reduzcan la expansión en la recolección de datos biométricos, en nuevos dominios como la realidad virtual o los vehículos autónomos.
● Implementar fuertes restricciones a la vigilancia algorítmica sobre los trabajadores, trasladando la carga de la prueba a los desarrolladores y las empresas. Establecer “líneas rojas” en áreas sensibles, como la selección y despidos automatizados, o con relación a ciertos tipos de tecnología, como el reconocimiento de emociones, que son inapropiadas en cualquier contexto.
● Prevenir los derechos preferenciales que surgen de acuerdos digitales internacionales, que pueden ser empleados para debilitar las regulaciones nacionales en materia de políticas de competencia y rendición de cuentas algorítmicas. Las garantías absolutas de secreto en los códigos fuente y algoritmos, en los acuerdos comerciales, no deben ser utilizados para reducir los esfuerzos de avanzar en la transparencia algorítmica.
Conclusiones
En resumen, resulta fundamental que los gobiernos, sobre todo en los países tecnológicamente más rezagados, adopten una serie de políticas que les permitan afrontar los desafíos que genera el actual ritmo exponencial de la innovación, particularmente en el campo de la IA. Frente a estos desafíos, el Estado tiene un rol ineludible, en tanto acelerador, amortiguador o freno de ese proceso, de modo de aprovechar las ventajas del cambio y evitar sus amenazas éticas y culturales. Una mayor iniciativa en estas materias puede reducir el riesgo de una creciente dependencia tecnológica respecto de los países que lideran el desarrollo tecnológico.
En tal sentido, se destacó que el Estado puede actuar como formador de recursos humanos, promotor de nuevos emprendimientos, regulador y proveedor de servicios, destacándose su mayor proactividad y gradual conversión en una plataforma de servicios, como se explicó más arriba. También se hizo hincapié en la necesidad de fortalecer su capacidad institucional para asumir estos exigentes roles. Además de puntualizar algunos de los aspectos normativos y de gestión que requieren cambios o mejoras, también se destacaron algunos desafíos específicos, como convertir a Internet en un servicio público global, erradicar los legacy systems (o sea, los sistemas de computación –software y hardware– obsoletos, pero todavía en uso, que son incapaces de crecer ni de utilizar IA, y son vulnerables a ciberataques) o contener los riesgos en materia de ciberseguridad.
No es tarde para que los gobiernos de América latina y el Caribe reaccionen y asuman los compromisos que demanda la gestión pública en la era exponencial que estamos atravesando. Pero tampoco queda mucho tiempo.
Autorxs
Oscar Oszlak :
Contador Público y doctor en Economía por la Universidad de Buenos Aires. PhD Political Science y Master of Arts in Public Administration, UC Berkeley; Investigador Superior del CONICET. Profesor Consulto de la Facultad de Ciencias Sociales (UBA) y Profesor Extraordinario de la Universidad Nacional de Villa María.