Ante los acelerados avances de la inteligencia artificial en el mundo, muchos países comienzan a plantearse como sus legislaciones protegen a los usuarios y a los productos creados a través de esta tecnología. Ya que si bien los beneficios son grandes, muchos consideran que el uso de estas herramientas alimentan el algoritmo con nuestros datos personales y experiencias de la vida privada. Por lo que se están comenzando a trazar los límites de esta invención en contraposición a la protección de datos y la propiedad intelectual de las personas.
Así que partiendo de esa base, en este artículo vamos a identificar el impacto de la inteligencia artificial en la protección de datos y la propiedad intelectual. Así como los esfuerzos legales para normalizar esta tecnología en el mundo.
¿Qué es la protección de datos?
La protección de datos personales es un conjunto de técnicas jurídicas e informáticas que buscan garantizar la confidencialidad de la información de las personas que usan la tecnología. Esto quiere decir que se basa en el control de la información personal que es compartida en entornos en línea, como lo son las declaraciones de impuestos, llamadas telefónicas, envío de correos electrónicos, entre otros.
Se basa en el principio universal de que las personas deben decidir si desean compartir ciertos datos o no, al mismo tiempo que tienen la posibilidad de modificar sus decisiones según sea necesario.
¿Qué es la propiedad intelectual?
La propiedad intelectual se refiere a la protección del producto desarrollado por el intelecto humano en las industrias literarias, artísticas e industriales. Esto quiere decir que es la protección legal ejercida a través de las patentes, marcas y derechos de autor. Para permitir el reconocimiento de invenciones o creaciones dentro de cualquier entorno.
¿Cómo se relaciona la inteligencia artificial, la protección de datos y la propiedad intelectual?
La protección de datos y la propiedad intelectual se está viendo desafiada por el desarrollo de la Inteligencia Artificial en todo el mundo. Dado que su utilización implica el tratamiento de datos masivos, dónde se incluyen los datos personales de la persona que ejecuta el algoritmo. Además de establecer una línea ambigua entre la creación intelectual llevada a cabo por una persona o una máquina.
En diferentes partes del mundo, varios países han establecido sus posiciones con respecto a esta tecnología. Además de poner en marcha la inclusión de leyes que ayuden a establecer marcos jurídicos para estas inquietudes. Como lo es el caso de la Agencia de protección de Datos Personales de Noruega, que reconoce que la gran mayoría de las apps relacionadas con la IA requieren grandes volúmenes de datos para aprender y tomar decisiones.
Del mismo modo, la Unión Europea estableció que la autoría de las creaciones corresponde a las personas físicas que realicen el trabajo creativo y ejecuten los comandos que guían a ese algoritmo. Por lo que a pesar de que la aplicación no muestre las fuentes, ni los datos analizados, la autoría corresponde a la persona que ejecuta el comando, así como las fuentes originales de cada referencia.
Por otro lado, la preocupación constante queda evidenciada en el no-control de los datos que alimentan ese algoritmo. Dado que esas tecnologías son propensas a verse afectadas por filtraciones de datos personales, sin ningún tipo de repercusiones en muchos contextos.
Chat GPT y sus conflictos legales en Italia
Un ejemplo de estos conflictos es el caso de Chat GPT en Italia, dónde la Agencia Italiana de Protección de Datos decidió bloquear el chatbot hasta que contara con fundamentos legales adecuados. Esto quiere decir que ante una política de protección de datos inexistente por parte de la app, el Estado prefirió restringir su uso, hasta que la base jurídica fuese adaptada a las normales legales del país.
De este modo, ante la creciente alerta de incumplimiento de seguridad por parte de Chat GPT, al no permitir que los usuarios dieran el consentimiento para el uso de los datos del titular. Así como la no verificación de edad de los usuarios, antes de ejecutar la aplicación, eran muchos los riesgos que era preferible no asumir.
Ante esta restricción, la empresa responsable de la app de inteligencia artificial llamada OpenAI, optó por hacer unas adaptaciones de sus políticas internas para poder cumplir con el ordenamiento legal del país. Estableciendo en su página web un apartado dónde explica cuáles son los tipos de data que son procesados para el entrenamiento del algoritmo. Así como hicieron adaptaciones a sus términos y condiciones de uso, para poder agregar filtros de seguridad para evitar el uso sin supervisión de menores de 13 años.
Ante estos ajustes, la agencia italiana afirmó que esta conciliación jurídica es un gran avance para combatir los efectos negativos del uso de esta tecnología, permitiendo la utilización de Chat GPT otra vez en el país.
Si quieres obtener más información o necesitas asesoría sobre este y otros temas relacionados con el derecho, no dudes en contactarnos a través de nuestro formulario. Además, te compartimos nuestras redes sociales para que puedas seguir actualizado sobre los temas jurídicos que están en tendencia: Instagram, Facebook, Twitter y Linkedin.