En un anuncio realizado este miércoles, el líder de la mayoría del Senado, Chuck Schumer, presentó su esperada propuesta legislativa para gestionar la IA. Advirtió que "el Congreso debe unirse a la revolución de la IA" para aprovechar y gobernar la tecnología.
Schumer, demócrata de Nueva York, indicó su plan iniciará una serie de "AI Insight Forums" a finales de año. Estos foros reunirán a dirigentes de IA, investigadores, líderes comunitarios, especialistas en seguridad nacional y otros expertos.
Los resultados de estas reuniones, dijo, servirán de base para formular recomendaciones políticas al Congreso.
En su intervención en el Centro de Estudios Estratégicos e Internacionales, una organización bipartidista sin ánimo de lucro centrada en la política exterior y la seguridad nacional, Schumer declaró: "Algunos expertos predicen que en pocos años el mundo podría ser totalmente irreconocible del que vivimos hoy. Eso es la IA: alteradora del mundo".
Reconociendo los recientes cambios provocados por la IA, Schumer advirtió: "No tenemos más remedio que reconocer que los cambios de la IA están por llegar, y en muchos casos ya están aquí. Los ignoramos por nuestra cuenta y riesgo". Muchos quieren ignorar la IA porque es muy compleja. Pero cuando se trata de IA, no podemos ser avestruces metiendo la cabeza en la arena".
Equilibrio entre riesgos y beneficios
Schumer también destacó el potencial positivo de la IA, de lucha contra las enfermedades y el hambre a impulsar la productividad. Por otro lado, expresó su preocupación por sus posibles peligros, como la agitación laboral, la desinformación y el fraude.
Advirtió de posibles amenazas a la integridad de las elecciones, como falsas declaraciones distorsionadas y otras formas de calumnia diseñadas para dañar sus campañas o chatbots que difunden información errónea para influir en los votantes. "La IA podría utilizarse para ictericia e incluso desacreditar totalmente nuestras elecciones ya el próximo año", dijo Schumer. "Si no tomamos medidas para asegurarnos de que la IA preserva los cimientos de nuestro país, entonces arriesgamos la supervivencia misma de nuestra democracia".
Schumer dijo que 6 meses de debates con más de 100 partes interesadas en la IA han culminado en un proyecto legislativo denominado marco "SAFE Innovation for AI" (Innovación segura para la IA). Consta de 5 elementos clave:
- Seguridad: Reforzar la seguridad nacional haciendo frente a las amenazas de la IA, garantizando al mismo tiempo la seguridad económica de los trabajadores, en particular de los que tienen bajos ingresos.
- Rendición de cuentas: Fomentar el desarrollo de sistemas "responsables" para atajar la desinformación y la parcialidad y salvaguardar a los creadores abordando los problemas de derechos de autor y preservando los derechos de propiedad intelectual.
- Fundaciones: Garantizar que los sistemas de IA se ajustan a los valores democráticos, salvaguardar las elecciones, acentuar los beneficios sociales de la IA minimizando los daños potenciales e impedir que el Partido Comunista Chino establezca las normas mundiales de IA.
- Explicabilidad: Las empresas deben documentar cómo los sistemas de IA llegan a un resultado concreto en términos sencillos y comprensibles. Esto permitirá a los usuarios comprender mejor el razonamiento que subyace a la respuesta concreta del sistema y su origen.
- Innovación: Respaldar los avances estadounidenses en tecnologías de IA y promover a Estados Unidos como líder mundial en IA.
"La innovación debe ser nuestra estrella polar", continuó Schumer. "Pero si la gente piensa que la innovación en IA no se hace de forma segura, si no hay guardarraíles adecuados en su lugar - y el público siente que la innovación no será segura - eso sofocará o incluso detendrá la innovación por completo."
Esta llamada a la acción coincide con las advertencias urgentes de los expertos en IA, incluida una declaración del Centro para la Seguridad de la IA (CAIS) firmado por más de 350 directores ejecutivos de empresas tecnológicas, académicos, personalidades públicas y otros expertos notables.
Durante una visita al Área de la Bahía el martes, el Presidente Joe Biden se reunió con 8 expertos en IAEntre ellos, Jim Steyer, director general de Common Sense Media; Sal Khan, fundador y director general de Khan Academy; y Tristan Harris, director ejecutivo y cofundador del Center for Humane Technology y antiguo especialista en ética del diseño de Google.
Biden reconoció el rápido ritmo del cambio tecnológico impulsado por la IA, afirmando: "Veremos más cambios tecnológicos en los próximos 10 años que los que hemos visto en los últimos 50, y puede que incluso más allá".
Se fomenta la cooperación bipartidista en materia de IA
Schumer está colaborando estrechamente con la Casa Blanca en la estrategia de IA, organizando reuniones informativas bipartidistas para educar a los senadores sobre la IA.
Destacando la necesidad de un enfoque innovador para navegar por la política de IA, Schumer hizo hincapié en que los procesos legislativos típicos pueden no ser suficientes en este panorama tecnológico en rápida evolución. Su propuesta de "AI Insight Forums" analizará los derechos de autor y la propiedad intelectual, la seguridad nacional, el empleo y la preparación para los peores escenarios, entre otros temas.
Schumer declaró: "La IA evoluciona tan rápidamente -pero también tiene tal complejidad- que se requiere un nuevo enfoque. Las audiencias no serán suficientes. Necesitamos un enfoque integral, porque eso es lo que exigen la complejidad y la velocidad de la IA."
El discurso de Schumer demuestra que la era de la inteligencia artificial está despuntando y que es hora de la cooperación bipartidista para navegar por los territorios inexplorados de la tecnología.
"Como en muchas grandes empresas de la historia de nuestra nación, debemos avanzar con bipartidismo y cooperación", concluyó. "Debemos dejar de lado los complejos ideológicos y los intereses políticos. Sólo así tendrán éxito nuestros esfuerzos".
Regulación de la IA en EE.UU.: cronología
En comparación con la UE y China, el panorama normativo de la IA en Estados Unidos sigue algo indefinido.
Normativa sectorial
Aunque en EE.UU. no existe una regulación general de la IA, se han producido algunas actividades en sectores específicos que ofrecen pistas sobre la futura gobernanza.
En particular, el Instituto Nacional de Normas y Tecnología (NIST), la Comisión Federal de Comercio (FTC) y la Administración de Alimentos y Medicamentos (FDA) han publicado orientaciones sobre la IA.
El NIST habla de IA
El 26 de enero de 2023, el NIST publicó el Marco de Gestión de Riesgos de la Inteligencia Artificial 1.0 (RMF).
Este marco es una guía voluntaria para las empresas tecnológicas que diseñan, desarrollan, despliegan o utilizan sistemas de IA. Su objetivo es gestionar los riesgos asociados a la IA, haciendo hincapié en el desarrollo fiable y responsable de los sistemas de IA.
El RMF identifica 7 características de los sistemas de IA fiables:
- Seguro: Supervisa, controla o interviene de otro modo con el sistema de IA para evitar daños o poner en peligro la vida humana, la salud o la propiedad.
- Seguro y resistente: Protege contra los ataques y gestiona los posibles incidentes graves.
- Explicable e interpretable: Los resultados son explicables y no una "caja negra".
- Privacidad mejorada: Protege la autonomía humana manteniendo el anonimato, la confidencialidad y el control.
- Justo, con parcialidad gestionada: Promueve la equidad y la igualdad y mitiga diversos prejuicios.
- Responsabilidad y transparencia: Proporciona información sobre el ciclo de vida del sistema de IA y mantiene prácticas de gobernanza para reducir posibles daños.
- Válido y fiable: Garantiza que el sistema de IA funciona según lo previsto mediante pruebas y controles continuos.
La FTC habla de IA
La FTC señaló un mayor escrutinio de las empresas que utilizan IA. Emitió varias advertencias a las empresas para evitar prácticas desleales o engañosas.
Los funcionarios han indicado que las leyes vigentes siguen aplicándose a diversas actividades relacionadas con la IA. Por ejemplo, Lina Khan, Presidenta de la FTC, dice que las fuerzas del orden deben ser conscientes de cómo se aplican las leyes vigentes a la discriminación y los prejuicios relacionados con la IA.
La FDA y la IA
La FDA anunció planes para regular las herramientas y dispositivos clínicos basados en IA para la toma de decisiones sanitarias.
Esta fue una de las primeras publicaciones normativas prácticas centradas en la IA, publicado inicialmente en 2019. Los planes de la FDA eran ampliado en 2023.
De cara al futuro
El 14 de junio de 2023, se propuso una legislación bipartidista para responsabilizar a las empresas de redes sociales de los contenidos nocivos generados por la IA.
El proyecto de ley, presentado por los senadores Josh Hawley, republicano, y Richard Blumenthal, demócrata, podría allanar el camino para emprender acciones legales contra las empresas por los daños causados por la tecnología impulsada por IA, como las falsificaciones profundas.
Los estafadores ya utilizan falsificaciones profundas para fraude y desinformaciónque un experto en seguridad predijo que podría costar Miles de millones al año para los contribuyentes estadounidenses.
Esta propuesta de modificación de la Sección 230, una ley que actualmente otorga inmunidad a las plataformas en línea para que no se les considere responsables de los contenidos generados por los usuarios, se produce a raíz de dos casos del Tribunal Supremo del mes pasado que confirmaron el alcance de las protecciones de la Sección 230.
El artículo 230 es fundamental para los posibles casos de difamación en los que se vean implicados desarrolladores de IA como ChatGPT, ya que actualmente hace que causas judiciales contra los resultados de la IA como intratable. En la actualidad, la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996 garantiza que los "servicios informáticos interactivos" no sean considerados responsables como "editor o altavoz" de la información facilitada por los usuarios.
Blumenthal se refirió al proyecto de ley como un "primer paso" hacia la aplicación de salvaguardias en torno a la IA.
El respaldo bipartidista al proyecto de ley ilustra el creciente apetito por la regulación de la IA, que los anuncios de Schumer han confirmado.
Existe un amplio consenso entre republicanos y demócratas sobre la necesidad de gobernar la IA, pero las opiniones divergen en cuanto a las medidas prácticas.
En EE.UU. se está gestando una regulación exhaustiva de la IA, que podría empezar a aparecer en un momento similar al de la Ley de IA de la UE, cuya entrada en vigor está prevista para 2024.