Los agentes de codificación basados en inteligencia artificial (IA) están preparados para hacerse cargo de una gran parte del desarrollo de software en los próximos años. Sin embargo, cabe destacar que el cambio vendrá acompañado de riesgos legales en materia de propiedad intelectual, según dicen algunos abogados.
Los agentes de codificación impulsados por IA supondrán un paso adelante respecto de los asistentes de codificación basados en IA, o copilotos, que ahora utilizan muchos programadores para escribir fragmentos de código. Pero como los agentes de codificación potencialmente escriben más software y les quitan trabajo a los desarrolladores junior, las organizaciones necesitarán monitorear el resultado de sus codificadores robot. Así lo contemplan ciertos abogados expertos en tecnología.
Los medios de comunicación y los artistas ya han presentado varios casos de derechos de autor de IA en tribunales estadounidenses. Los demandantes acusan a los proveedores de IA de usar su material para entrenar modelos de IA o copiar su material en resultados, señala Jeffrey Gluck, abogado del bufete de abogados Panitch Schwarze, especializado en propiedad intelectual. Lo mismo podría suceder con el código de software, aunque las empresas normalmente no comparten su código fuente, afirma.
“¿El resultado infringe algo que alguien más ha hecho?”, plantea. “Cuanto más probable es que la IA haya sido entrenada usando el trabajo de un autor como datos de entrenamiento, más probable es que el resultado se parezca a esos datos”.
¿Cómo se entrenó la IA?
Más allá de la posibilidad de que los agentes de codificación de IA copien líneas de código, los tribunales tendrán que decidir si los proveedores de IA pueden usar material protegido por derechos de autor, incluido algún código de software, para entrenar sus modelos de IA, dice Gluck.
“A nivel del gran modelo lingüístico, ya tenemos un problema de derechos de autor que aún no se ha resuelto”, afirma.
Es poco probable que los problemas legales desaparezcan en el corto plazo, añade Michael Word, abogado especializado en propiedad intelectual y TI del bufete de abogados Dykema Gossett.
“Ya estamos viendo la posibilidad de utilizar la IA en segundo plano, básicamente, para redactar porciones significativas de código”, afirma. “Hay interfaces de usuario que dicen: ‘Quiero que mi aplicación haga esto’, pulsas el botón y el código se genera en segundo plano”.
Si no se revisa el código generado por la IA, las organizaciones pueden verse expuestas a demandas judiciales, añade. “Hay mucho trabajo en marcha entre bastidores, que va más allá de los fragmentos de código que se pueden tomar prestados”, afirma. “¿Se trata de tomar todo prestado de una sola fuente? ¿Hay varias fuentes? Tal vez se pueda percibir que algo está pasando allí”.
Si bien el código escrito por humanos también puede infringir derechos de autor o violar licencias de código abierto, el riesgo con el código generado por IA está relacionado con los datos con los que se entrena a la IA, dice Ilia Badeev, director de Ciencia de Datos en Trevolution Group, una empresa de tecnología de viajes. Existe una buena probabilidad de que muchos agentes de IA estén entrenados con código protegido por derechos de propiedad intelectual.
“Esto significa que la IA podría generar código idéntico al código propietario de sus datos de entrenamiento, lo que supone un gran riesgo”, añade Badeev. “Lo mismo ocurre con el material de código abierto. Muchos programas de código abierto están destinados únicamente a un uso no comercial. Cuando una IA genera código, no sabe cómo se utilizará ese código, por lo que podría acabar infringiendo accidentalmente los términos de la licencia”.
Los proveedores toman medidas
GitHub Copilot, el popular asistente de codificación de IA propiedad de Microsoft, reconoce que podría, en casos excepcionales, “hacer coincidir ejemplos de código utilizados para entrenar el modelo de inteligencia artificial de GitHub”. El asistente de codificación cuenta con un filtro de referencia de código opcional para detectar y suprimir sugerencias que coincidan con el código público, y está probando una función de referencia de código para ayudar a los usuarios a encontrar y revisar licencias de código abierto potencialmente relevantes.
GitHub también cuenta con protecciones legales. “Cuando los usuarios tienen habilitado el filtro que bloquea las coincidencias con el código público existente, están cubiertos por la política de indemnización de GitHub”, afirma una portavoz.
Tabnine, otro proveedor de un asistente de codificación con IA, anunció su propio agente de revisión de código a finales de octubre. Pero GitHub Copilot y Tabnine no son los únicos asistentes de codificación disponibles, y GitHub señala que los usuarios son responsables de sus propias políticas de licencias de código abierto.
Para protegerse, las organizaciones que utilizan agentes de codificación de IA deberán verificar el código producido por la IA para detectar infracciones de derechos de autor y violaciones de licencias de código abierto, ya sea por parte de programadores humanos o por servicios que verifican el software para detectar infracciones de propiedad intelectual, dice Word de Dykema Gossett.
Algunas plataformas de generación de códigos de IA “le ayudarán a protegerse de cierta responsabilidad, o al menos le darán cierta comodidad”, afirma el abogado.
Es probable que surjan otros servicios, dice Word. “Puedes imaginar que a medida que este tipo de sistemas se utilicen cada vez más, tendrás este tipo de proveedor de servicios donde puedes cargar tu código fuente y ellos lo revisarán para ver si infringe las leyes de código abierto”, dice. “Se entrenarán con todos los conjuntos de datos públicos que estén disponibles y auditarán tu código para ver si hay alguna posible queja por infracción de derechos de autor”.
Badeev, de Trevolution, recomienda a las empresas que utilicen agentes de codificación para verificar los resultados de la misma manera que auditan el código generado por humanos en busca de violaciones de la propiedad intelectual. “Aún es necesario aplicar las mismas prácticas recomendadas que aplicarías con el código escrito por humanos; aspectos como las revisiones de código siguen siendo muy importantes”, afirma. “No puedes confiar en que la IA haga todo bien por sí sola”.
El riesgo no está claro
No está claro hasta qué punto esto supondrá un problema para las organizaciones que implementan agentes de codificación. Gluck, de Panitch Schwarze, sugiere que los grandes proveedores de inteligencia artificial pueden ser blancos más importantes para demandas por derechos de autor y otras infracciones de propiedad intelectual, pero Word dice que habrá algún riesgo para las organizaciones de usuarios, especialmente cuando utilicen agentes de codificación para poner a disposición comercial paquetes de software exitosos.
“Debes estar al tanto de lo que hacen tus programadores”, dice Word. “Tus programadores van a hacer esto porque es una herramienta muy útil y es difícil evitar que esto suceda”.
Las empresas deben tomar medidas razonables para evitar las violaciones de la propiedad intelectual, añade. “Por tanto, la cuestión es: ¿hacen la vista gorda o no establecen medidas de protección para intentar solucionar el problema, o realmente son proactivos a la hora de intentar solucionarlo?”, afirma.
Read More from This Article: Los agentes de codificación de IA conllevan implicaciones legales
Source: News