Los desarrolladores de IA podrían perder su «inmunidad legal»

En junio, la Corte Suprema de EE. UU. dictaminará si se debe mantener la inmunidad legal de YouTube, un fallo que puede tener consecuencias de gran alcance para los desarrolladores de IA como ChatGPT y OpenAI. 

Los jueces deben dictaminar si se puede demandar a YouTube de Alphabet Inc por sus recomendaciones de videos a los usuarios. Ese caso prueba si una ley de EE. UU. que protege a las plataformas tecnológicas de la responsabilidad legal por el contenido publicado en línea por sus usuarios también se aplica cuando las empresas usan algoritmos para dirigirse a los usuarios con recomendaciones.

Lo que el tribunal decida sobre este tema afectará no solo a las redes sociales como Youtube, sino también a numerosos sitios web impulsados ​​por inteligencia artificial, como ChatGPT de OpenAI y Bard de Google, que de manera similar generan contenido potencialmente dañino basado en los comandos de los usuarios.

Mientras tanto, estos desarrolladores de IA deben tener cuidado con los reclamos legales que siguen a consecuencias imprevistas cuando la información proporcionada puede usarse para actividades delictivas o incluso ser fatal si cae en las manos equivocadas.

El caso que decidió la Corte Suprema llegó a un punto crítico luego de la apelación presentada contra YouTube por la familia de Nohemi González, una estudiante de California de 23 años presuntamente asesinada a tiros en un ataque terrorista en París en 2015. 

Los demandantes acusaron a YouTube de brindar “apoyo material” al terrorismo. Alegaron que YouTube, a través de los algoritmos de la plataforma para compartir videos, había alentado ilegalmente a ciertos usuarios a ver videos de la organización terrorista Estado Islámico, que ha sido vinculada al ataque.

“El debate es realmente sobre si la organización de la información disponible en línea a través de los motores de recomendación es tan importante para dar forma al contenido como para convertirse en responsable”, dijo Cameron Kerry, miembro visitante del grupo de expertos Brookings Institution en Washington y experto en IA. “Tienes el mismo tipo de problemas con respecto a un chatbot”.

Sección 230

Actualmente, los desarrolladores de IA como YouTube y Open AI disfrutan de un alto grado de inmunidad de responsabilidad frente a demandas por el contenido distribuido en sus plataformas.

Esta inmunidad relativa se rige actualmente por la Sección 230 de la Ley de Decencia en las Comunicaciones de 1996. Sin embargo, durante las audiencias de febrero, los jueces de la Corte Suprema discutieron si tal vez no debería reducirse este umbral de responsabilidad.

El caso actual se centra principalmente en si la inmunidad de la Sección 230 debe continuar aplicándose a los modelos de IA que, además de estar capacitados para filtrar grandes cantidades de datos en línea, además de eso, pueden proporcionar resultados auténticos de forma independiente. Los tribunales aún no se han pronunciado sobre si una respuesta de un chatbot de IA está cubierta. 

El senador demócrata Ron Wyden, quien ayudó a redactar ese proyecto de ley en la Cámara de Representantes, dijo que el escudo de responsabilidad no debería aplicarse a las herramientas de IA generativa porque tales herramientas “crean contenido”.

“La Sección 230 se trata de proteger a los usuarios y sitios para hospedar y organizar el discurso de los usuarios. No debería proteger a las empresas de las consecuencias de sus propias acciones y productos”, dijo Wyden en un comunicado a Reuters.

‘Realmente no estoy creando nada’

La industria de la tecnología ha instado a la aplicación de la Sección 230, diciendo que herramientas como ChatGPT simplemente funcionan como motores de búsqueda, dirigiendo a los usuarios al contenido existente en respuesta a una consulta.

“La IA no está realmente creando nada. Es tomar el contenido existente y ponerlo de una manera diferente o en un formato diferente”, dijo Carl Szabo, vicepresidente y asesor general de NetChoice, un grupo comercial de la industria tecnológica.

Szabo dijo que una Sección 230 debilitada sería imposible para los desarrolladores de IA y los expondría a una avalancha de demandas que podrían sofocar la innovación.

Hany Farid, tecnólogo y profesor de la Universidad de California, Berkeley, dijo que está más allá de la imaginación argumentar que los desarrolladores de IA deberían ser inmunes a las demandas por los modelos que han “programado, entrenado y desplegado”.

“Cuando se responsabiliza a las empresas en litigios civiles por los daños causados ​​por los productos que producen, producen productos más seguros”, dijo Farid. “Y cuando no se les hace responsables, producen productos menos seguros”.

Foto del avatar
Mundo Libre Diario
Por favor, activa JavaScript en tu navegador para completar este formulario.
Consent

COMENTARIOS

guest
0 Comentarios
Más antiguo
Más reciente
Feedbacks en línea
Ver todos los comentarios