escritor fundador tamizun sitio web impulsado por Financial Times sobre nuevas empresas europeas
Los líderes del G7 abordaron muchas preocupaciones globales sobre las ostras nomi al vapor en Hiroshima el fin de semana pasado: la guerra en Ucrania, la resiliencia económica, la energía limpia y la seguridad alimentaria, entre otras. Pero también agregaron un elemento adicional a su bolsa de despedida de buena voluntad: la promoción de una IA confiable e inclusiva.
Al reconocer el potencial innovador de la inteligencia artificial, los líderes se preocuparon por el daño que podría causar a la seguridad pública y los derechos humanos. Al lanzar el proceso de IA de Hiroshima, el G7 ha encargado a un grupo de trabajo que analice el impacto de los modelos generativos de IA, como ChatGPT, y allane el camino para las discusiones de los líderes a finales de este año.
Los desafíos iniciales serán la mejor manera de identificar la IA, clasificar sus riesgos y enmarcar una respuesta adecuada. ¿Es mejor dejar la regulación a las agencias nacionales existentes? ¿O la tecnología es tan importante que requiere nuevas instituciones internacionales? ¿Necesitamos el equivalente moderno de la Agencia Internacional de Energía Atómica, que se estableció en 1957 para promover el desarrollo pacífico de la tecnología nuclear y disuadir su uso militar?
Se puede debatir la eficacia con la que las Naciones Unidas han realizado esta tarea. Además, la tecnología nuclear incluye infraestructura y materiales radiactivos masivos que son fácilmente detectables físicamente. Por otro lado, la IA es relativamente barata, invisible, omnipresente y tiene casos de uso ilimitados. Como mínimo, presenta un desafío cuádruple que debe abordarse de manera más flexible.
La primera dimensión es la discriminación. Los sistemas de aprendizaje automático están diseñados para distinguir e identificar valores atípicos en los patrones. Esto es bueno para detectar células cancerosas en exámenes radiológicos. Pero es una mala práctica usar sistemas de caja negra entrenados en conjuntos de datos defectuosos para contratar y despedir trabajadores o para autorizar préstamos bancarios. Sesgo hacia adentro, sesgo hacia afuera, como dicen. Prohibir estos sistemas en áreas de alto riesgo inaceptable, como sugiere la próxima ley de inteligencia artificial de la UE, es un enfoque estrictamente precautorio. Crear auditores expertos independientes puede ser un enfoque más adaptable.
En segundo lugar, la desinformación. Como advirtió el experto académico Gary Marcus al Congreso de los Estados Unidos la semana pasada, la IA generativa podría poner en peligro la democracia misma. Dichos modelos pueden generar mentiras plausibles y humanos falsos a la velocidad del rayo y a escala industrial.
La responsabilidad debería recaer en las propias empresas de tecnología para marcar el contenido con marca de agua y reducir la información errónea, al igual que tomar medidas enérgicas contra el correo no deseado. El no hacerlo solo amplificará los llamados a una intervención más drástica. Es posible que este precedente se haya sentado en China, donde un proyecto de ley establece la responsabilidad por el uso indebido de los modelos de IA en el producto en lugar del usuario.
Tercero, desintegración. Nadie puede predecir con precisión el impacto económico que tendrá la inteligencia artificial en general. Pero parece bastante seguro que “desprofesionalizará” segmentos de trabajos administrativos, dijo la empresaria Vivien Ming a FT Weekend en la capital.
Los programadores informáticos han adoptado ampliamente la IA generativa como una herramienta para mejorar la productividad. Los guionistas de Hollywood, por el contrario, pueden ser la primera letra de muchas profesiones que temen que sus habilidades básicas se automaticen. Esta historia desordenada desafía las soluciones simples. Los países tendrán que adaptarse a los desafíos sociales a su manera.
Cuarto, destrucción. La integración de la IA en los sistemas letales de armas autónomas (LAWS), o robots asesinos, es una perspectiva aterradora. El principio de que los seres humanos siempre deben permanecer en el círculo de toma de decisiones solo puede establecerse y aplicarse mediante tratados internacionales. Lo mismo ocurre con la discusión sobre la inteligencia artificial general, el día (quizás ficticio) en el que la inteligencia artificial supera a la inteligencia humana en todos los dominios. Algunos activistas descartan este escenario como una fantasía que distrae. Pero ciertamente vale la pena prestar atención a los expertos que advierten sobre posibles riesgos existenciales y piden colaboraciones internacionales de investigación.
Otros argumentarían que tratar de regular la IA es tan inútil como rezar para que el sol nunca se ponga. Las leyes evolucionan solo gradualmente, mientras que la inteligencia artificial evoluciona exponencialmente. Pero Marcus dice que se sintió consolado por el consenso bipartidista para la acción en el Congreso de EE.UU. Quizás los reguladores de la UE tengan miedo de establecer estándares globales para la IA, como lo hicieron hace cinco años con la protección de datos, y también apoyen públicamente las regulaciones.
Los líderes del G7 deberían fomentar la competencia por las buenas ideas. Ahora necesitan lanzar una carrera organizativa hacia la cima, en lugar de conducir un temible deslizamiento hacia el fondo.