La ley de IA propuesta por los liberales es demasiado vaga y costosa, dicen los ejecutivos de las grandes empresas tecnológicas a los parlamentarios

Representantes de las grandes empresas tecnológicas dicen que un proyecto de ley del gobierno liberal que comenzaría a regular algunos sistemas de inteligencia artificial es demasiado vago.

Los ejecutivos de Amazon y Microsoft dijeron a los parlamentarios en una reunión del comité industrial de la Cámara de los Comunes el miércoles que el proyecto de ley C-27 no diferencia lo suficiente entre sistemas de inteligencia artificial de alto y bajo riesgo.

Las empresas dijeron que cumplir la ley tal como está escrita sería costoso.

Nicole Foster, directora de inteligencia artificial global y política pública canadiense de Amazon, dijo que usar el mismo enfoque para todas las aplicaciones es “muy poco práctico y podría sofocar inadvertidamente la innovación”.

El uso de IA por parte de un agente del orden público se considera de alto impacto en todos los casos, dijo, incluso cuando un oficial utiliza la corrección automática para completar una multa por una infracción de tránsito.

“Las leyes y regulaciones deben diferenciar claramente entre aplicaciones de alto riesgo y aquellas que presentan poco o ningún riesgo. Este es un principio fundamental que debemos corregir”, dijo Foster.

“Debemos tener mucho cuidado al imponer cargas regulatorias a aplicaciones de IA de bajo riesgo que potencialmente pueden proporcionar aumentos de productividad muy necesarios para las empresas canadienses, tanto grandes como pequeñas”.

Microsoft dio su propio ejemplo de cómo la ley no parece diferenciar según el nivel de riesgo que introducen los sistemas de IA en particular.

Un hombre hace gestos con las manos mientras habla con los periodistas en una sala de conferencia de prensa.  Dos banderas canadienses aparecen al fondo.
El Ministro de Industria, François-Philippe Champagne, ha ofrecido información sobre las modificaciones previstas al proyecto de ley. (Adrian Wyld/Prensa canadiense)

Un sistema de inteligencia artificial utilizado para aprobar la hipoteca de una persona y manejar detalles confidenciales sobre sus finanzas se consideraría igual que uno que se utiliza para optimizar las rutas de entrega de paquetes utilizando datos públicos.

El ministro de Industria, François-Philippe Champagne, ha estado ofreciendo información sobre las modificaciones que el gobierno espera presentar al proyecto de ley para garantizar su actualización.

Pero a pesar de ese detalle adicional, las empresas dijeron que las definiciones del proyecto de ley siguen siendo demasiado ambiguas.

Amanda Craig, directora senior de políticas públicas de la oficina de IA responsable de Microsoft, dijo que no diferenciar entre los dos “distribuiría poco el tiempo, el dinero, el talento y los recursos de las empresas canadienses, y potencialmente significaría que los recursos finitos no se centran lo suficiente en el mayor riesgo”. “.

El proyecto de ley C-27 se presentó en 2022 para apuntar a lo que se describen como sistemas de inteligencia artificial de “alto impacto”.

Pero los sistemas de inteligencia artificial generativa como ChatGPT, que pueden crear texto, imágenes y videos, estuvieron ampliamente disponibles para el público solo después de que se presentó por primera vez el proyecto de ley.

Los liberales ahora dicen que modificarán la legislación para introducir nuevas reglas, incluida una que exige que las empresas detrás de dichos sistemas tomen medidas para garantizar que el contenido que crean sea identificable como generado por IA.

A principios de esta semana, Yoshua Bengio, apodado el “padrino” de la IA, dijo al mismo comité que Ottawa debería implementar una ley de inmediato, incluso si esa legislación no es perfecta.

Bengio, director científico de Mila, el Instituto de IA de Quebec, dijo que en sólo unos años podría llegar una inteligencia “sobrehumana” que sea tan inteligente como un ser humano.

Los sistemas avanzados podrían usarse para ataques cibernéticos, dijo, y la ley debe adelantarse a ese riesgo.

La IA ya plantea riesgos. Los videos deepfake, que se generan para que parezca que una persona real está haciendo o diciendo algo que nunca hizo, pueden usarse para difundir desinformación, dijo Bengio.

Leave a Reply

Your email address will not be published. Required fields are marked *