Selon la Free Software Foundation, GitHub Copilot est « inacceptable et injuste »
copilote githubC’est une extension de Visual Studio Code qui utilise l’intelligence artificielle pour aider les développeurs à écrire du code, et elle a attiré l’ire de la Free Software Foundation (FSF), qui appelle à des livres blancs abordant les questions juridiques et philosophiques soulevées par la technologie.
GitHub Copilot est « inacceptable et injuste, à notre avis », a écrit la FSF à l’adresse Article de blog Plaidoyer pour des livres blancs sur les implications du copilote pour la communauté du logiciel libre. La raison en est que Copilot nécessite un programme non libre pour s’exécuter, tel que l’IDE Visual Studio de Microsoft ou l’éditeur de code Visual Studio, comme l’affirme la FSF, et constitue « Le service comme alternative au logiciel » Ce qui signifie que c’est un moyen de gagner du pouvoir sur l’informatique des autres.
Créé par GitHub en collaboration avec OpenAI, copilote Il s’agit d’une extension de Visual Studio Code qui utilise l’apprentissage automatique formé sur des logiciels open source et sous licence gratuite pour suggérer des lignes de code ou des fonctions aux développeurs lorsqu’ils écrivent des programmes. Co-Pilot est actuellement disponible en avant-première technique limitée.
La FSF a déclaré qu’il existe des questions juridiques liées à Copilot qui n’ont peut-être pas été testées auparavant devant un tribunal. Ainsi, l’organisation finance un appel à livres blancs examinant à la fois les questions juridiques et éthiques liées au copilote, au droit d’auteur, à l’apprentissage automatique et aux logiciels libres. La FSF a déclaré que l’utilisation par Copilot de logiciels sous licence libre a de nombreuses implications pour la communauté du logiciel libre et qu’elle a reçu de nombreuses demandes de renseignements sur sa position sur ces questions.
« Les développeurs veulent savoir si la formation d’un réseau de neurones sur leur logiciel peut être considérée comme une utilisation équitable. D’autres qui pourraient vouloir utiliser Copilot se demandent si des extraits de code et d’autres éléments copiés à partir de référentiels GitHub hébergés peuvent entraîner une violation du droit d’auteur « , a écrit la FSF.
« Et même si tout est légalement illégal, les militants se demandent s’il n’y a rien de fondamentalement injuste à ce qu’une société de logiciels propriétaires crée un service à partir de son travail. »
La FSF a cité les questions suivantes comme étant intéressantes :
- La formation de Copilot sur les référentiels publics est-elle une violation du droit d’auteur ? utilisation équitable?
- Quelle est la probabilité que la production de Copilot donne lieu à des réclamations exécutoires pour violation d’œuvres sous licence GPL ?
- Les développeurs utilisant Copilot peuvent-ils se conformer aux licences de logiciels libres telles que la GPL ?
- Comment les développeurs peuvent-ils s’assurer que le code dont ils possèdent les droits d’auteur est protégé contre les violations causées par Copilot ?
- Si Copilot génère du code qui enfreint une œuvre sous licence d’un logiciel libre, comment le titulaire du droit d’auteur peut-il découvrir cette infraction ?
- Le modèle d’IA/ML entraîné est-il protégé par le droit d’auteur ? A qui appartiennent les droits d’auteur ?
- Des organisations comme la FSF devraient-elles exiger une modification de la loi sur le droit d’auteur en rapport avec ces questions ?
La FSF paiera 500 $ pour les livres blancs que vous publierez et examinera également les demandes de financement pour des recherches supplémentaires menant à un article ultérieur. Les candidatures sont acceptées jusqu’au lundi 21 août à l’adresse e-mail suivante : [email protected]. Les instructions pour les papiers peuvent être trouvées sur fsf.org.
Logiciel de balisesGitHub