El Centro de Estándares e Innovación en IA (CAISI) del Instituto Nacional de Estándares y Tecnología del Departamento de Comercio de EE.UU. anunció acuerdos con Google DeepMind, Microsoft y xAI para someter a revisión los modelos de Inteligencia Artificial antes de que se pongan a disposición del público.
"La ampliación de la colaboración con los principales laboratorios de IA de EE.UU. permitirá realizar evaluaciones previas al despliegue y otras investigaciones", indicó el comunicado oficial.
Salvaguardas ante el avance de las nuevas tecnologías
De acuerdo con la nota de prensa, CAISI "llevará a cabo evaluaciones previas al despliegue e investigaciones específicas para evaluar mejor las capacidades de la IA de vanguardia y mejorar la seguridad de la IA".
Hasta ahora, la administración de Donald Trump había defendido un enfoque de no intervención para dar vía libre a Silicon Valley en el desarrollo de esta vanguardista tecnología para ganarle a China en la carrera de la IA.
Un factor determinante en este cambio de postura habría sido el reciente anuncio de la empresa Anthropic sobre su modelo de ciberseguridad Mythos, un programa que la propia compañía decidió no lanzar al público -pero sí a un grupo de empresas americanas- debido a su extrema capacidad para identificar vulnerabilidades críticas en software, lo que podría desencadenar una crisis de ciberseguridad.
Este giro coincide también con una reestructuración en la política tecnológica de la Casa Blanca tras la salida en marzo de David Sacks, conocido como el "zar de la IA".
Ahora, la jefa de gabinete de la Casa Blanca, Susie Wiles, y el secretario del Tesoro, Scott Bessent, han asumido un papel protagonista en la definición de la política de Inteligencia Artificial.
La respuesta de Meta a la Unión Europea
La compañía tecnológica va a empezar a usar en la UE la Inteligencia Artificial para el análisis de texto, con el objetivo de identificar de forma proactiva las cuentas que se sospeche que pertenecen a adolescentes, incluso si indican una fecha de nacimiento de adulto.
La IA ayudará a hacer un análisis de contexto para identificar y eliminar las cuentas de personas que Meta cree que son menores de 13 años.
En el caso de Instagram, los perfiles que tengan más de 13 años quedarán ubicados directamente en la cuentas de adolescentes, que incluyen por defecto las protecciones adecuadas por edad, las cuales limitan quién puede contactar con ellos y el contenido que ven.
Este uso de la IA, que ya existía en Estados Unidos, Australia, Canadá y el Reino Unido, se amplia ahora, para Instagram, a los 27 países de la Unión Europea y Brasil.
En el caso de Facebook, la empresa lo está extendiendo ahora, por primera vez, a Estados Unidos, y llegará al Reino Unido y la UE en junio.
La IA se usará para analizar perfiles completos en busca de pistas que aporten más contexto -como celebraciones de cumpleaños o menciones a notas escolares- para determinar si es probable que una cuenta pertenezca a un menor de edad, ha informado la compañía Meta en su web.
Esas señales se buscan en diversos formatos, como publicaciones, comentarios, biografías y pies de foto, y se está ampliando a espacios como Instagram Reels, Instagram Live y los grupos de Facebook.
Si se detecta que una cuenta puede pertenecer a un menor, se desactivará y el titular deberá aportar una prueba de edad a través del proceso de verificación para evitar que se elimine su cuenta.
Meta está incorporando otros usos de la IA para mejorar los esfuerzos de detección, pero hasta ahora solo se aplicarán en Estados Unidos.
Se trata del análisis visual, que permite a la IA examinar fotos y vídeos en busca de pistas visuales sobre la edad de una persona que el texto podría pasar por alto.