Medio de comunicación independiente

Los días 1-2 de noviembre de 2023 pasarán a la historia como las fechas de la primera conferencia sobre seguridad y regulación internacional de la inteligencia artificial, la AI Safety Summit.

Esta conferencia tuvo lugar en Bletchley Park, Milton Keynes, Reino Unido, en honor al importante papel que tuvo este enclave durante la segunda guerra mundial, siendo uno de los lugares donde los primeros ordenadores semi-programables fueron desplegados con el objetivo de descifrar e interceptar las comunicaciones de los Nazis.

Los ministros digitales posan para una fotografía familiar el primer día de la Cumbre de IA del Reino Unido en Bletchley Park. Imagen de Marcel Grabowski / Gobierno del Reino Unido

Alan Turing fue una de las mentes brillantes que estuvo trabajando en este complejo, siendo uno de los pioneros en la computación y dando nombre al “nobel de la computación” y el “Test de Turing”. El primero, siendo el premio más importante en el campo de la computación, y el segundo, uno de los conceptos más influidos y criticados dentro de la filosofía de la inteligencia artificial para evaluar si una máquina es tan inteligente o indistinguible de un ser humano.

En esta conferencia internacional de 28 países, incluyendo China, Estados Unidos y la Unión Europea, se firmó una declaración con el objetivo de reducir los riesgos de la inteligencia artificial. Los puntos principales fueron los siguientes:

- La inteligencia artificial ya es parte principal de nuestro día a día y su uso va a aumentar considerablemente en los próximos años.

- El uso de esta tecnología puede aumentar significativamente los riesgos en campos como la desinformación, la ciberseguridad y la biotecnología.

-  Los riesgos son más notables en la “frontera” de la inteligencia, incluyendo ésta los modelos más avanzados con propósito general.

-  Debido a la naturaleza de esta tecnología, un dialogo internacional de cooperación es necesario para maximizar los beneficios.

Es importante destacar que no ha habido ningún acuerdo para implantar una regulación concreta a nivel internacional, sino más bien una declaración de intenciones. Una de las propuestas principales sería la creación de un panel internacional similar a lo que ya existe para el cambio climático.

Los países firmantes de la declaración se han comprometido a la creación de un informe “State of the Science” para informar de manera científica sobre los riesgos y capacidades de la inteligencia artificial puntera. Éste será publicado en la siguiente conferencia que tendrá lugar en Korea del Sur en mayo de 2024.

Como anfitrión de la Cumbre sobre la Seguridad de la IA, el Reino Unido ha encargado la presidencia del informe a Yoshua Bengio, académico galardonado con el premio Turing y miembro del consejo científico asesor de la ONU.

Las empresas líderes en esta tecnología (OpenAI, DeepMind, Meta, Google, Microsoft, Amazon…) han acordado permitir a los gobiernos testear los productos que incluyan IA antes de ser lanzados al público. Sin embargo, hay una gran discrepancia entre los trabajadores de estas empresas en los riesgos a largo plazo de esta tecnología, siendo algunos como el CEO de OpenAI, Sam Altman, y el de DeepMind, Demis Hassabis, defensores de que esta tecnología tiene la capacidad de exterminar a la humanidad.

Otros como el co-fundador de Coursera y antiguo Head of IA en Baidu y Google Brain, afirman que este alarmismo puede ser una estrategia de las grandes empresas para crear una regulación que les permita dominar el mercado poniendo barreras a la competencia. Hay que tener en cuenta que estas personas al tener cargos en sus respectivas empresas tienen un claro conflicto de intereses a la hora promover cualquier tipo de regulación, siendo su opinión cuestionable de cara a que busque lo mejor para la sociedad.

En cualquier caso, mentes brillantes del mundo de la investigación y la industria llevan años advirtiendo del riesgo de la inteligencia artificial y la necesidad de regular e invertir en seguridad cuanto antes.

Los líderes del sector advierten sobre el ‘riesgo de extinción’ de la inteligencia artificial
Directivos de OpenAI, Google DeepMind, Anthropic y otros laboratorios de inteligencia artificial advierten que los sistemas del futuro podrían ser tan mortíferos como las pandemias y las armas nucleares.

Otro de los debates relevantes en relación a la regulación de la IA es que hacer con el desarrollo de software libre. En este sentido, uno de los argumentos a favor de que los modelos con mayores capacidades sean abiertos es que favorece la innovación y desfavorece la concentración de poder en un grupo de personas, empresas o países.

El principal argumento en contra es que hay actores que pueden utilizar estos modelos con intenciones perjudiciales, ya que al ser libres nada impide que países que no se adhieran a los acuerdos internacionales como Rusia o Irán utilicen estas herramientas para fines bélicos. Es cierto que también se suele argumentar que grupos no gubernamentales pueden ser potenciales actores por lo que, al igual que con otras armas, es necesaria una infraestructura y capital que no esté a su alcance.

En definitiva, la inteligencia artificial tiene la capacidad de provocar una revolución aún mayor que la Revolución Agrícola o la Revolución Industrial. Es razonable incluso pensar que una “Época de abundancia” donde prácticamente todos los actuales bienes y servicios tienen coste cero puede lograrse en décadas o pocas generaciones. Uno de los defensores de esta futura situación económica es Elon Musk, que estuvo presente en la conferencia.

La gran pregunta incluso en este mejor escenario posible es que va a ocurrir con la distribución de la riqueza, dado que la mayoría de las personas y países se verán beneficiados por el uso de la IA sólo en el caso de haya una política global internacional efectiva.

Te has suscrito correctamente a The Political Room
¡Bienvenido! Has iniciado sesión correctamente.
¡Excelente! Te has registrado correctamente.
¡Éxito! Su cuenta está completamente activada, ahora tiene acceso a todo el contenido.