La cumbre de seguridad de IA del Reino Unido recibe el visto bueno de los gigantes tecnológicos
Abran paso a otro foro sobre seguridad de la IA. El gobierno del Reino Unido ha anunciado que convocará una cumbre de IA "global" este otoño con el objetivo de acordar "medidas de seguridad para evaluar y monitorear los riesgos más significativos de la IA", como lo expresa su PR.
Todavía no se sabe quién asistirá, pero el gobierno dice que quiere que la discusión incluya "países clave, empresas tecnológicas líderes e investigadores".
"La cumbre, que se llevará a cabo en el Reino Unido este otoño, considerará los riesgos de la IA, incluidos los sistemas fronterizos, y discutirá cómo pueden mitigarse a través de una acción coordinada internacionalmente. También proporcionará una plataforma para que los países trabajen juntos en más desarrollando un enfoque compartido para mitigar estos riesgos”, añade.
El primer ministro Rishi Sunak se encuentra hoy en los EE. UU. donde, según la línea del gobierno, se reunirá con el presidente Biden y presionará por un "liderazgo conjunto" de tecnologías como la IA, entre conversaciones sobre otros temas económicamente importantes.
En particular, el comunicado de prensa que anuncia la ambición del Reino Unido de organizar una cumbre global de IA incluye simultáneamente un reclamo por separado, en relación con las "empresas globales que expanden su trabajo de IA en el Reino Unido", y el gobierno destaca desarrollos como OpenAI que abrió una oficina en Londres el pasado semana.
Las relaciones públicas también están dominadas por citas enlatadas de gigantes tecnológicos y empresas de inteligencia artificial, como Google DeepMind, Anthropic, Palantir y la facultad prodigando elogios al plan de la cumbre a través de declaraciones de apoyo de altos ejecutivos.
(Para una muestra de la adulación de la industria incrustada en las relaciones públicas del gobierno, Demis Hassabis de DeepMind proclama que la "Cumbre mundial sobre seguridad de la IA" de Sunak desempeñará un papel fundamental para reunir al gobierno, la industria, la academia y la sociedad civil; Dario Amodei de Anthropic elogia al primer ministro por "unir al mundo para encontrar respuestas y tener conversaciones inteligentes"; y Marc Warner, de la Facultad, sugiere que el Reino Unido está "en una posición perfecta" para proporcionar "liderazgo tecnológico" y "fomentar la colaboración internacional";
La estrategia que el Reino Unido parece estar adoptando aquí es posicionarse como el mejor amigo de la industria de la IA (o, bueno, el títere), de una manera que podría ir en contra de los esfuerzos internacionales existentes para acordar medidas de protección significativas para la IA si termina abriendo una brecha. entre el lado estadounidense y otros jugadores internacionales.
El anuncio de la cumbre se produce unas dos semanas después de que Sunak se reuniera con varios ejecutivos de tecnología que dirigen a los gigantes de la IA, incluidos Amodei de Anthropic, Hassabis de DeepMind y Sam Altman de OpenAI. Después de lo cual, el gobierno repentinamente comenzó a graznar sobre el riesgo existencial de la IA, en una clara repetición de las preocupaciones de ciencia ficción que los gigantes de la IA han estado promulgando frente a los sistemas de IA "superinteligentes" inexistentes, en un intento por enmarcar el debate sobre la IA. la seguridad centrándose en los riesgos futuros teóricos, mientras se minimiza la discusión de los daños reales causados por la IA aquí y ahora (como el abuso de la privacidad, el sesgo, la discriminación y la desinformación, la infracción de derechos de autor y el daño ambiental, por nombrar algunos).
La gran gira europea de Sam Altman
En otra señal del lujoso amor de la industria de IA por UK Plc rn, el CEO de Palantir, Alex Karp, fue entrevistado en AI por el programa Today de BBC Radio 4 esta mañana, donde destacó elogios sobre el "enfoque pragmático de la protección de datos" del Reino Unido. , como él lo expresó, comparando favorablemente la falta de aplicación de las reglas de privacidad del Reino Unido con la aplicación más estricta del Reglamento General de Protección de Datos de la UE (que, por el contrario, obligó rápidamente a ChatGPT a proporcionar a los usuarios más información y controles), además de afirmar que "será mucho más difícil para el continente adaptarse a los grandes modelos lingüísticos [que el Reino Unido]".
Queda por ver qué hará la administración Biden con la cumbre de seguridad de IA de Sunak. O, de hecho, si asistirá alguien importante del gobierno de EE.UU. Pero los gigantes de la IA, que en su mayoría tienen su sede en los EE. UU., ciertamente enturbian la conversación sobre la regulación de la IA sobre el estanque.
Los legisladores de EE. UU. siguen preocupados por la carga de la regulación de la IA en la industria, y es demostrable que son más reacios a apresurarse con medidas de protección que, por ejemplo, sus contrapartes en la Unión Europea.
Como tercer país para ambos lados, el Reino Unido tiene la opción de elegir dónde arrojar su sombrero sobre las reglas internacionales de IA. Todo indica que pretende utilizar este tema, y los gigantes de la IA de EE. UU., como una palanca estratégica para establecer una relación más estrecha con EE. UU., basada en alinearse con reglas de IA más diluidas (suponiendo que EE. ).
El Reino Unido es en realidad un converso tardío a la discusión sobre cómo regular la IA. Hace solo unos meses, publicó un libro blanco de IA que decía que no veía la necesidad de nuevas reglas a medida u organismos de supervisión para IA, prefiriendo cargar la responsabilidad a los reguladores existentes con exceso de trabajo (sin expandir sus presupuestos) preguntando para que elaboren y emitan orientaciones específicas según el contexto. ¿El nombre de ese libro blanco? "Un enfoque a favor de la innovación para la regulación de la IA".
También está haciendo que esta cumbre de IA se mueva en un momento en que los gobiernos, los reguladores y los legisladores de todo el mundo ya están respondiendo a la creciente alarma sobre los riesgos de seguridad que se derivan de las tecnologías de aprendizaje automático en rápido desarrollo mediante la movilización de una variedad de vías de debate e iniciativas con el objetivo de remachar acuerdo internacional sobre salvaguardias y normas de seguridad.
La OCDE ya adoptó los principios de IA en mayo de 2019. Mientras que la FTC publicó una guía de IA en abril de 2021. E incluso la Administración Nacional de Telecomunicaciones e Información (NTIA) del Departamento de Comercio de EE. UU. comenzó a consultar sobre cómo impulsar la responsabilidad de IA este abril. . La ONU también está analizando la IA.
Luego está el "proceso de Hiroshima" de los líderes del G7, una vía reciente compuesta por discusiones a nivel de gabinete entre los países del G7 sobre la gobernanza de la IA que se publicará a fines de año. Mientras que, antes de eso, los países del G7 y otros lanzaron la Alianza Global sobre IA, que tiene como objetivo promover el desarrollo y el uso responsables y centrados en el ser humano de las tecnologías de IA mediante el intercambio de investigaciones y fomentar la colaboración internacional hacia una IA confiable.
La Unión Europea, por su parte, presentó su propio proyecto legislativo para regular la IA hace más de dos años. Los legisladores del bloque ahora están ocupados negociando un acuerdo sobre un texto final de ese marco, incluida la consideración de cómo debería abordar la IA generativa, y se busca un acuerdo político sobre la Ley de IA de la UE para fines de este año. (Aunque la ley paneuropea no entrará en vigor durante varios años después de eso).
La UE y EE. UU. también están trabajando (o al menos hablando) juntos en un Código de Conducta de IA que se concibe como un conjunto provisional de normas voluntarias hasta que entre la legislación, y lo hace a través de un taller de conversación transatlántico, llamado EE. UU. El Consejo de Comercio y Tecnología de la UE (TTC), un foro en el que el Reino Unido no es parte, ya que abandonó la UE tras el referéndum del Brexit.
La semana pasada, la UE dijo que comenzaría a redactar este Código de Conducta de AI y dijo que esperaba tener algo por escrito en cuestión de semanas.
Aunque quedó menos claro después de la reunión del TTC a cuánto se comprometió la parte estadounidense. Pero los legisladores estadounidenses estaban en la sala hablando.
Al discutir el Código de IA en una sesión informativa con periodistas la semana pasada, la vicepresidenta ejecutiva de la UE, Margrethe Vestager, quien encabeza la estrategia digital del bloque, subrayó cómo esta iniciativa liderada por la UE podría, muy rápidamente, estar moldeando barandillas globales de IA, diciendo a los periodistas: "Si podemos comenzar a redactar con los estadounidenses, el resto del G7, invitar a invitados y hacer que la industria se inscriba, por supuesto, también para nosotros con alguna validación de terceros, entonces podríamos cubrir un tercio de la población mundial en un período de tiempo muy, muy corto. Y eso puede ser algo bueno".
Por lo tanto, el bloque claramente está trabajando a buen ritmo para aprovechar la oportunidad de aplicar el 'efecto Bruselas' a las reglas globales de IA de primer orden.
Los legisladores de la UE también anunciaron recientemente una segunda vía sobre la regulación de la IA: un Pacto de IA que tiene como objetivo lograr que la industria de la tecnología acepte cumplir voluntariamente con las disposiciones que se avecinan en la Ley de IA de la UE antes mencionada antes de que la legislación entre en vigor legalmente (que probablemente no será antes de 2026, según Vestager).
Por lo tanto, la UE se ocupa de la regulación de la IA desde múltiples ángulos (ley dura, código de la industria, código internacional y un participante clave en otras iniciativas globales).
Estados Unidos ciertamente también está involucrado en la conversación, aunque se mantiene a una distancia más fría y mantiene sus cartas más cerca de su pecho, probablemente debido al cabildeo de los gigantes estadounidenses de IA.
En comparación, el Reino Unido se está poniendo los pantalones mientras se esfuerza por ponerse al día. (Después de que su PR comience con una afirmación llamativa de que el Reino Unido organizará "la primera gran cumbre mundial sobre seguridad de IA", continúa hablando de boquilla sobre algunos de los esfuerzos internacionales existentes sobre seguridad de IA, en los últimos varios años, haciendo una mención de pasada de "discusiones recientes en el G7, la OCDE y la Asociación Global sobre IA", que implica que se basará en la cumbre del Reino Unido. No se mencionan los esfuerzos múltiples de IA de la UE; en cambio, hay un Brexit con sabor a "porky ' afirmando: "Nuestra salida de la UE también nos permite actuar de manera más rápida y ágil en respuesta a este mercado que cambia rápidamente").
Queda por ver qué tan importante podría ser que el Reino Unido se ponga del lado de la industria de IA de EE. UU. en las reglas de seguridad de autoservicio. Pero Sunak tiene la oportunidad de abrir una brecha en los esfuerzos de la UE para llevar a los estadounidenses a un Código de IA internacional más sólido. De ahí todos los halagos de la industria de la IA.
Después de la reunión de TTC entre los legisladores de la UE y los EE. UU., una fuente de la UE le dijo a TechCrunch que las discusiones revelaron enfoques divergentes, diciendo que EE. UU. no parece estar listo para regular, mientras que dijeron que el bloque sigue comprometido con su visión establecida de que un despliegue responsable de IA requiere una regulación robusta y ambiciosa.
También nos dijeron que existe preocupación por parte de la UE de que las discusiones sobre los principios globales de la IA no terminen diluyéndose en un mínimo común denominador que podría terminar socavando el marco legislativo de la Ley de IA basada en el riesgo que el bloque tiene en marcha.
Así que quizás haya más en juego y en juego en la Cumbre de IA de Sunak de lo que podría parecer a primera vista.
Los legisladores de la UE y EE. UU. avanzan rápidamente para redactar el Código de conducta de AI