¿Está listo el gobierno del Reino Unido para abandonar su enfoque de la regulación de la IA?
Mientras los laboristas piden licencias de IA, hay señales de que el gobierno está vacilando en sus planes para vigilar los sistemas automatizados.
Por Ryan Morrison
El enfoque de "toque ligero" del gobierno para la regulación de la IA "no está a la altura", según la secretaria digital en la sombra del Partido Laborista, Lucy Powell, y no está sola en esa opinión. El SNP también ha pedido una reunión urgente con el gobierno sobre el tema, y hay señales de que Whitehall puede estar cambiando de tono, ya que el primer ministro Rishi Sunak se reunirá mañana con el presidente de EE. UU. Joe Biden para discutir un enfoque coordinado para vigilancia de grandes modelos de lenguaje y otras formas de IA.
Las opiniones varían enormemente sobre cómo regular la IA y cómo mitigar los riesgos que presenta, evitando al mismo tiempo reducir el impacto positivo que la tecnología puede tener en una variedad de sectores comerciales.
En su libro blanco de IA publicado a principios de este año, el gobierno del Reino Unido describió un enfoque ligero que esencialmente dejaría a la industria libre para desarrollarse a voluntad. Propuso que los reguladores individuales controlarían los casos de mayor "riesgo" en su sector, en lugar de tener un regulador global de IA, como se ha propuesto en otras partes del mundo.
Pero esto es visto por muchos como un enfoque muy arriesgado. China tiene un requisito para los desarrolladores de modelos de IA básicos para garantizar que la producción esté "en consonancia con los valores chinos" y Europa tiene propuestas similares en desarrollo.
La Ley de IA de la UE, la primera legislación integral de IA en el mundo, está adoptando un enfoque basado en el riesgo, centrándose en la funcionalidad de la herramienta de IA y su potencial. Este enfoque se diseñó antes del surgimiento de modelos básicos de IA como GPT-4, por lo que ahora hay llamados a introducir medidas más expansivas, incluidas reglas de informes sobre datos de entrenamiento y evaluaciones de riesgo de salida para garantizar que "se ajuste a los valores europeos".
Los laboristas piden un enfoque similar en el Reino Unido. Esto podría incluir la concesión de licencias para el desarrollo de la IA, no solo la regulación sobre cómo se utiliza. Powell dijo que hay "una carrera global en curso para ser el país elegido para el crecimiento de la IA, que el Reino Unido, con nuestro sector de IA líder y una sólida reputación en materia de regulación, está bien posicionado para liderar. Pero la estrategia del gobierno no es a la altura de esta tarea, y ya desfasada después de sólo dos meses".
Agregó que AI no es solo ChatGPT, ha estado en desarrollo durante mucho tiempo y ya está ampliamente implementado. “Si bien aún no podemos ver todas sus implicaciones, está claro que serán significativas”, dijo Powell. "Muchos de estos serán positivos, mejorando la productividad, los servicios públicos, el descubrimiento científico, pero también tienen el potencial de ser seriamente dañinos si no se regulan adecuadamente".
Hay señales de que el gobierno puede estar vacilando en su llamada postura "pro-innovación". Es probable que la reunión de Sunak con Biden en Washington lo vea presentar un enfoque global para la regulación de la IA. Se argumenta que un enfoque global de este tipo garantizaría la igualdad de condiciones y permitiría a los desarrolladores saber que lo que construyen sería aplicable en cualquier lugar.
Sunak quiere posicionar al Reino Unido en el centro de este movimiento regulatorio mundial de IA, con la esperanza de convertir el establecimiento de estándares de IA en una herramienta de poder blando que también ayudaría a vender el Reino Unido como un lugar para hacer negocios y desarrollar tecnología de punta. El problema es que esto es algo que todos los demás países del mundo también están tratando de lograr. Japón anunció recientemente que eliminaría cualquier regla de derechos de autor del contenido utilizado para entrenar modelos como una forma de impulsar su sector de IA en declive.
La formación de una nueva organización global de IA, similar a la Agencia Internacional de Energía Atómica, puede ser la única forma en que el Reino Unido podrá opinar sobre los estándares internacionales. Desde el Brexit, ha sido excluido de foros clave como el Tech and Trade Council, donde países como EE. UU. y Canadá han comenzado a discutir códigos de conducta de IA con la UE.
La forma que tome la regulación final, o si se establece a nivel nacional o global, se reducirá a una serie de negociaciones con empresas, entre gobiernos y con organizaciones del tercer sector. La forma en que esto debería funcionar es tan debatida como la propia legislación.
Mhairi Aitken del Instituto Alan Turing expresó su preocupación por el lenguaje que rodea el cambio de la regulación para beneficiar a Big Tech y los grandes laboratorios de IA existentes. Sunak se reunió con los jefes de la industria de IA, incluido el director ejecutivo de OpenAI, Sam Altman, la semana pasada, y Altman ha estado de gira por países de todo el mundo reuniéndose con legisladores.
Aitken cree que cualquier licencia que se presente debe ser independiente de Big Tech: "Hemos visto en el último mes el nivel de influencia que Big Tech está teniendo en la regulación y la política", dice, explicando que la narrativa en torno a AI ha cambiado, con un enfoque en los sistemas futuros que solo sirve como una distracción.
"Me preocupa que estas discusiones sobre la regulación no estén centradas en las voces de las comunidades afectadas", explica Aitken. "En cambio, se centran en las voces de Big Tech, cuyo interés y motivación es impulsar la innovación y ganar dinero, en lugar de los riesgos. Se centran en las implicaciones y los riesgos hipotéticos en lugar del mundo real que se experimentan hoy".
ForHumanity es una organización configurada para otorgar licencias y proporcionar certificación para desarrolladores de IA. Esto es similar al modelo que está considerando Labor, y la organización ya crea certificaciones y capacitación contra la Ley de IA de la UE. El CEO Ryan Carrier le dijo a Tech Monitor que cualquier régimen de licencias debería aplicarse en todos los ámbitos y ser llevado a cabo por organizaciones no gubernamentales de terceros.
Dijo que esto también debería aplicarse a las empresas más pequeñas, del tipo "dos personas que construyen una IA en su garaje", ya que también pueden crear herramientas que pueden causar un daño significativo. "Alentamos a los gobiernos a crear centros de innovación que puedan producir una gobernanza, supervisión y responsabilidad significativas para numerosas PYME de manera apalancada. El cumplimiento, independientemente del tamaño, es importante", dice Carrier.
Para BCS, el Chartered Institute for IT del Reino Unido, la certificación y la concesión de licencias son una buena idea, pero también deben estar respaldadas por un sólido código de conducta. "Ya hemos pedido un registro de tecnólogos que trabajan en tecnologías de IA en 'infraestructura crítica' o que 'podrían ser potencialmente dañinas para la vida humana'", explica Adam Leon Smith, presidente del grupo asesor BCS F-TAG.
"Es importante comprender que no podemos centrarnos únicamente en la capacitación de los desarrolladores o la certificación de la tecnología", dice Leon Smith. "En realidad, necesitamos controlar cuidadosamente cómo usamos la IA. Esto se debe a que las mitigaciones de riesgos como las pruebas, el consentimiento informado, la supervisión y el monitoreo de humanos en el circuito solo se pueden implementar con una comprensión completa del contexto de uso. No tiene sentido regulando los LLM más allá de las obligaciones de transparencia, en su lugar regulan a las personas que los implementan en contextos particulares".
Agrega que la gente quiere regular la tecnología, pero ese no es el enfoque correcto. "En primer lugar, cambia demasiado rápido y, en segundo lugar, lo que importa es el sistema holístico", explica. "Al observar los dominios críticos de seguridad, generalmente no se regula una 'parte' o 'componente' individual, sino el sistema en general".
Una de las razones clave para regular dicha tecnología es la mitigación de riesgos. Esto es algo que las empresas están ansiosas de que suceda, ya que hará que la implementación de la tecnología sea más segura. También cuenta con el apoyo de la industria de seguros. Rory Yates, líder estratégico global en el proveedor de plataformas de seguros, EIS dice que esto debería incluir un registro de aquellos que trabajan en IA. "Creo que un enfoque sensato para la licencia o la certificación es extremadamente beneficioso para las industrias altamente reguladas como la de seguros, especialmente porque ahora requieren un cambio claro en la forma en que asumen la responsabilidad de sus clientes".
"Asegurarse de que solo haya profesionales acreditados que desarrollen y utilicen estas tecnologías será una forma de controlar quién tiene acceso a esta tecnología y cómo la utilizan. Al mismo tiempo, se crea un mercado laboral positivo, uno que tiene estándares claros y determinables para lo que es "bueno". parece", agregó.
Tech Monitor le preguntó a Labor cómo podrían funcionar las licencias en la realidad y le dijeron que se están considerando varias opciones, no solo las licencias. El problema es más que debe haber una legislación vigente y no solo un enfoque de toque ligero propuesto por los conservadores, dijo un portavoz del partido.
Cómo obtener lo mejor de ambos mundos en la nube híbrida