Propiedad Intelectual en tiempos de Inteligencia Artificial
Bogotá D.C., mayo de 2024 – En los últimos años, la afluencia de contenido producido con ayuda de la Inteligencia Artificial ha sido notable. Esto ha planteado retos en la legalidad de la Propiedad Intelectual y debates sobre si la capacidad creativa que usan las máquinas puede generar contenido original.
Los usos de la IA van tomando protagonismo en diferentes campos y uno de ellos es el de la industria cultural. Existen aquellas obras creadas con ayuda de la Inteligencia Artificial y, por otro lado, el contenido de las obras que se han usado para entrenar modelos de Inteligencia Artificial Generativa. Por un lado, los modelos de la Inteligencia Generativa son construidos igual que los modelos de machine learning, como modelos clásicos de Inteligencia Artificial. La herramienta utiliza una base de datos y, con tal información, el algoritmo trabaja para encontrar patrones en esos datos. Este proceso en el que el modelo aprende los patrones enseñados se llama entrenamiento.
La Inteligencia Generativa se entrena entonces de tal manera que cuando se vean nuevos datos similares a los datos originales, puedan hacerse predicciones de todo tipo. En el mercado podemos encontrar algoritmos de clasificación, de valores o, los más usuales, de palabras. Mario Rugeles, Director de Data en Endava afirma: “Los nuevos modelos tienen una comprensión mucho más extensa del lenguaje y son capaces de entender y responder a preguntas complejas de forma más natural y precisa”.
Estos modelos de lenguaje tienen como fundamento una amplia base de datos y, por tanto, dominan conocimientos en los que el usuario no es experto. Lo útil está en pedir ideas e inspiración a estos chats y usarlos como un componente más de apoyo para extender las habilidades creativas del propio usuario. En suma, la Inteligencia Generativa ayuda a mejorar el texto original de la persona, no a crear.
¿Pero qué sucede si hablamos de los límites de la propiedad intelectual?
La Inteligencia Generativa hace más compleja la identificación de plagio y el respeto a los derechos de autor. Las Inteligencias se nutren en el proceso de entrenamiento de una base de conocimientos existente, pero es casi imposible que origine una obra exacta ya concebida. ¨Actualmente las demandas alrededor de la Inteligencia Artificial Generativa están enfocadas a contenidos con derechos de autor que fueron potencialmente usados para entrenar los modelos como Chat GPT. Esto hace el escenario del plagio más complejo porque, aunque un modelo no necesariamente va a reproducir un fragmento de una obra, su respuesta se va a basar en información existente protegida por derechos de autor en los cuales no existen mecanismos legales que permitan su uso en sistemas de inteligencia artificial.
Y es perfectamente razonable que existan esos huecos legales, la tecnología avanza con demasiada velocidad y es imposible anticipar los retos legales que vienen de esta innovación acelerada.”, argumenta el experto.
Para Rugeles, la solución está en que los usuarios de estas Inteligencias tengan cada vez más en cuenta la citación de los prompts usados como autores o ayudantes del resultado: “Si el usuario se ha apoyado en alguna herramienta inteligente y ha generado contenido con la ayuda de la IA, creo que es primordial darlo a conocer en aras de la transparencia.”, asevera.
Rugeles agrega: ¨La mejor recomendación para las empresas es que estas desmotiven el uso de aplicaciones públicas de Inteligencia Artificial con documentos privados y confidenciales. Todo lo que se escribe dentro de estos modelos tiene posibilidades de ser usado por el propio entrenamiento de las IA para mejorar sus conocimientos. Por tanto, lo más aconsejable es que las compañías se suban a la tendencia de usar modelos abiertos que les permitan explotar los beneficios de la Inteligencia Artificial en sus propios ambientes internos. Sin dudas, cuando se utilizan asistentes públicos de IA, existe el riesgo de que la información confidencial ingresada en estos sistemas quede expuesta o reutilizada. Este riesgo surge de la incertidumbre sobre dónde y cómo las herramientas de Inteligencia Artificial almacenan y procesan los datos, lo que podría dar lugar a una republicación o acceso no autorizados por parte de terceros¨, argumenta el experto.