El CEO de OpenAI, Sam Altman, les dirá a los legisladores estadounidenses el martes que la regulación de la IA debe permitir que las empresas sean flexibles y se adapten a los nuevos desarrollos tecnológicos, ya que la industria enfrenta un mayor escrutinio por parte de los reguladores de todo el mundo.
Altman, cuya empresa creó el chatbot de IA ChatGPT, dirá que “la regulación de la IA es esencial”, como testifica por primera vez ante el Congreso el martes.
Sus comentarios se producen cuando los reguladores y los gobiernos de todo el mundo intensifican el escrutinio de la tecnología en rápida evolución en medio de las crecientes preocupaciones sobre posibles infracciones.
Según notas preparadas antes de la audiencia, Altman le dirá al Subcomité Judicial del Senado sobre Privacidad, Tecnología y la Ley que está “ansioso por ayudar a los legisladores a determinar cómo facilitar la regulación que equilibre el incentivo de la seguridad y garantice que las personas puedan acceder a los beneficios de tecnología.”
La semana pasada, los legisladores de la UE acordaron un conjunto estricto de reglas sobre el uso de la inteligencia artificial, incluidas las restricciones a los chatbots como ChatGPT, mientras Bruselas sigue adelante con la promulgación del régimen más restrictivo del mundo sobre desarrollo tecnológico.
A principios de este mes, tanto la Comisión Federal de Comercio de EE. UU. como el organismo de control de la competencia del Reino Unido dispararon advertencias a la industria. La Comisión Federal de Comercio dijo que se está “centrando ampliamente en cómo las empresas eligen usar la tecnología de IA”, mientras que la Autoridad de Mercados y Competencia del Reino Unido planea lanzar una revisión del mercado de IA.
La certificación de Altman recomendará que las empresas de IA cumplan con “un conjunto apropiado de requisitos de seguridad, incluidas las pruebas internas y externas antes del lanzamiento” y los requisitos de licencia o registro para los modelos de IA.
Sin embargo, advertirá esto al enfatizar los requisitos de seguridad que “las empresas de IA deben cumplir”. [should] Un sistema de gobierno que sea lo suficientemente flexible para adaptarse a los nuevos desarrollos tecnológicos”.
El rápido desarrollo de la IA generativa, que puede producir una escritura persuasiva similar a la humana, en los últimos seis meses tiene preocupados a algunos especialistas en ética de la IA.
En marzo, Elon Musk y más de 1000 investigadores y ejecutivos de tecnología firmaron una carta en la que pedían una pausa de seis meses para entrenar modelos de lenguaje de IA más potentes que GPT-4, la tecnología central que OpenAI usa en su chatbot. A principios de este mes, el pionero de la inteligencia artificial Jeffrey Hinton renunció a Google después de una década trabajando para el gigante tecnológico para hablar libremente sobre los peligros de la tecnología, que advirtió que amplificaría las divisiones sociales y podría ser utilizada por malos actores.
“La inteligencia artificial será transformadora de maneras que ni siquiera podemos imaginar, con implicaciones para las elecciones, los trabajos y la seguridad de los estadounidenses”, dijo el senador republicano Josh Hawley en un comunicado antes de la audiencia.
Christina Montgomery, vicepresidenta y directora de privacidad y confianza de IBM, y Gary Marcus, profesor emérito de la Universidad de Nueva York, también testificarán el martes.
“La inteligencia artificial necesita urgentemente reglas y salvaguardas para cumplir con sus enormes promesas y riesgos”, dijo en un comunicado el senador demócrata Richard Blumenthal, presidente del comité.
Esta audiencia inicia el trabajo de nuestro subcomité para supervisar y sacar a la luz algoritmos avanzados de IA y tecnología poderosa. . . A medida que exploramos estándares y principios razonables para ayudarnos a navegar por este territorio desconocido”.
Información adicional de Madhumita Murgia