EE.UU. avisa a las tecnológicas de que deben garantizar la seguridad de la IA
Tanto Joe Biden como Kamala Harris hicieron hincapié en la importancia de "mitigar" los riesgos actuales y potencias que la IA pueda suponer para los individuos, la sociedad y la seguridad nacional.
WASHINGTON -(EFE)- La vicepresidenta de Estados Unidos, Kamala Harris, advirtió este jueves a los directivos de las cuatro firmas estadounidenses al frente del desarrollo de la inteligencia artificial (IA), con los que se reunió en la Casa Blanca, que deben garantizar la seguridad de los productos que usen ese sistema.
"El sector privado tiene la responsabilidad ética, moral y legal de garantizar la seguridad de sus productos. Y cada empresa debe cumplir con las leyes existentes para proteger al pueblo estadounidense", dijo la vicepresidenta en un comunicado.
Harris se pronunció tras haber recibido en la Casa Blanca a los consejeros delegados de Microsoft, Satya Nadella; Alphabet y Google, Sundar Pichai; Anthropic, Dario Amodei, y OpenAI, Sam Altman.
"Los avances en tecnología siempre han presentado oportunidades y riesgos, y la IA no es diferente. Es una de las tecnologías más poderosas de la actualidad, con el potencial de mejorar la vida de las personas y abordar algunos de los mayores desafíos de la sociedad", ha remarcado la vicepresidenta.
Al mismo tiempo, según ha destacado, esa tecnología "tiene el potencial de aumentar drásticamente las amenazas a la seguridad y la protección, infringir los derechos civiles y la privacidad, y erosionar la confianza pública y la fe en la democracia".
Por la reunión se pasó el presidente de EE.UU., Joe Biden, para "subrayar que las compañías tienen una responsabilidad fundamental de garantizar que sus productos son seguros antes de distribuirlos o presentarlos en público", indicó otro comunicado de la Casa Blanca.
Tanto Biden como Harris hicieron hincapié en la importancia de "mitigar" los riesgos actuales y potencias que la IA pueda suponer para los individuos, la sociedad y la seguridad nacional.
La reunión se centró en tres áreas: la necesidad de que las compañías sean más transparentes con los políticos y el público sobre sus sistemas de IA; la importancia de evaluar, verificar y validar la seguridad de dichos sistemas; y la importancia de garantizar que la IA no cae en manos de "actores maliciosos" y es blanco de ataques.
La portavoz de la Casa Blanca, Karine Jean-Pierre, añadió en su rueda de prensa diario que la conversación con los cuatro directivos fue "franca y honesta", y ha incidido en que es necesario que las plataformas que desarrollan la IA sean "más transparentes" sobre sus sistemas tanto con los políticos como con el público.
Antes de la cita, la Administración de Joe Biden ya había adelantado que las grandes empresas de IA han aceptado someterse a una evaluación pública de sus sistemas durante el evento de "hackers" DEF CON 31, que se celebrará en Las Vegas a comienzos de agosto.
Previo a la reunión, EE.UU. avanzó este jueves que invertirá 140 millones de dólares para establecer siete nuevos institutos de investigación en inteligencia artificial que impulsarán la innovación responsable y asegurarán que los avances sirven al bien común, lo que elevará a 25 la cifra total en el país de ese tipo de centros.
El Gobierno emitirá también nuevas directrices sobre el uso de la IA por parte de las agencias gubernamentales y federales, para asegurar que respetan los derechos y la seguridad de los ciudadanos estadounidenses.