En los primeros días de noviembre se ha celebrado en Londres, amparada por el gobierno británico, el AI Safety Summet, la primera cumbre internacional de seguridad de la inteligencia artificial, en la que 28 países han firmado la llamada «declaración de Bletchley Park”, el primer acuerdo mundial que reconoce «las oportunidades y los riesgos de la Inteligencia Artificial (IA) de frontera» y asume el compromiso de que «los gobiernos trabajen juntos para afrontar los desafíos más importantes».
Paralelamente, esa misma semana Joe Biden firmaba una orden ejecutiva que impone nuevas normas a las empresas e instruye a varias agencias federales para que establezcan salvaguardas. La orden del presidente Biden trata de establecer un punto intermedio en la batalla que se ha generalizado entre los partidarios de que la inteligencia artificial avance rápidamente y aquellos que piden que se establezca una pausa de seis meses que permita conocer los riesgos de la inteligencia artificial y establecer una regulación adecuada. En su presentación señaló Biden, «Sin las salvaguardias adecuadas, la IA puede provocar discriminación, prejuicios y otros abusos», subrayó Biden, quien además mencionó los deep fakes publicados en las redes sociales donde se puede reproducir casi milimétricamente la apariencia y voz de una persona. «He visto los míos y me pregunté: ¿cuando dije eso?», bromeó el presidente.
Regulación versus innovación
La primera aproximación normativa a la inteligencia artificial la realizó la Unión Europea que realizó en abril de 2021 una propuesta de Reglamento por el que se establecen normas armonizadas en materia de inteligencia artificial, la cual quedó obsoleta antes de su aprobación, debido a los avances desmesurados de la inteligencia artificial generativa, y que conllevo su modificación posterior para incluirla.
Europa ha tendido a realizar la primera regulación de todas aquellas tecnologías nuevas que han ido surgiendo, no olvidemos, por ejemplo, la regulación del mercado de criptomonedas a través del Reglamento MICA, provocando en un amplio sector del mercado una actitud de reprobación al considerar que la normativa que se dicta, encorseta el desarrollo empresarial e impide la generación de nnovación, y con ello una perdida de oportunidades de negocio y generación de empleo. En este sentido se manifestó el ministro de digitalización francés Nöel-Barron quien indico “Tenemos que evitar sobreregular y coartar así la habilidad para el desarrollo de esta tecnología en la UE. La prioridad principal de Europa debe ser tener la capacidad de poseer esta nueva generación de tecnología, la IA generativa”.
“El éxito de la AI podría ser la perdición de la raza humana» Stuart J. Russell
La cumbre celebrada en Londres viene precedida de las declaraciones efectuadas por Sam Almant CEO de OpenAI la empresa creadora de Chat GPT quien afirma que «en algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y que los esfuerzos más avanzados acuerden limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos.» Y solicita a través de la web de la empresa “Una transición gradual da tiempo a las personas, a los formuladores de políticas y a las instituciones para comprender lo que está sucediendo, experimentar personalmente los beneficios y las desventajas de estos sistemas, adaptar nuestra economía y establecer regulaciones”.
En el mismo sentido se pronunciaron los 4.000 firmantes, entre los que se encontraba Elon Musk, Steve Wozniak o el académico Stuart J. Russell, de la carta promovida en el mes de marzo por Future of Life Institute y en la que se puede leer que ““la IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos adecuados” y en la que acaban pidiendo “a todos los laboratorios de IA que pongan inmediatamente en pausa durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4”.
Postura de la que se desmarcan académicos como Mark Coeckelbergh, filosofo belga, que la considera “una exageración transhumanista de la inteligencia artificial” y señala que el establecimiento de una moratoria no surtiría efecto porque las compañías encontrarían la forma de burlarla, y concluye “No hay pérdida de control cuando se regula adecuadamente esta tecnología. La pérdida de control que debería preocuparnos es que la IA siga en manos de las grandes tecnológicas y que su futuro esté influido por las personas que firmaron la carta. Son parte del problema, no de la solución…”.
AI Safety Summet
El primer ministro británico Rishi Sunak, en los días previos a la cumbre, presentó el informe Capacidades y riesgos de la IA de frontera, que sirvió como documento de trabajo. Este documento describe las capacidades, los riesgos y los desafíos transversales que presenta la tecnología, señalando particularmente los peligros relacionados con el uso indebido, los daños sociales y la pérdida de control. “La naturaleza dinámica de la IA significa que puede ser difícil predecir sus riesgos. Diferentes variables (cómo está diseñada la IA, los usos que se le da, los datos con los que se alimenta) pueden interactuar de maneras que son casi imposibles de predecir. Los gobiernos, académicos, empresas y grupos de la sociedad civil deben trabajar juntos para comprender estos riesgos y sus posibles soluciones”.
Y en efecto, una de las propuestas con las que concluyó la cumbre recoge la creación la creación de un grupo de analistas internacionales, inspirados en el modelo del IPCC (Grupo Intergubernamental de Expertos sobre el Cambio Climático), para publicar un informe sobre el estado de la ciencia en materia de IA.
Para el gobierno americano los peligros de la IA ya se evidencian en nuestra sociedad, Kamala Harris instó en poner la atención no solo en los retos de la inteligencia artificial de frontera, sino en los problemas que se están creando ya, como la avalancha de desinformación las redes sociales, la interferencia en procesos electoral o el aumento de los fraudes. De nuevo se plantean los problemas regulatorios, y la dificultad esta en encontrar ese punto intermedio que la cumbre pretendió soslayar con la creación de un grupo de trabajo. Nick Clegg, ex viceprimer ministro británico y actual presidente de asuntos globales de Meta cuestionó la adopción inmediata de medidas, «el riesgo es el de crear nuevas instituciones, restricciones, limitaciones y poderes a los Gobiernos para interferir antes incluso de que la tecnología haya emergido». Dos visiones contrapuestas de un mismo problema, que como casi siempre sólo tendra respuesta cuando se haga inminente el problema, mientras nos quedaremos con estudios y grupos de trabajo.
«La calidad de la verdad va a decrecer de manera rapidísima y eso eliminará de forma sistemática el pensamiento crítico y supondrá un daño enorme para la democracia».