Die Free Software Foundation findet, dass GitHub Copilot illegal sein sollte

GitHub Copilot ist ein neuer KI-Assistenzdienst für die Softwareentwicklung, der in Microsofts Visual Studio Code integriert ist. GitHub Copilot kann verschiedene Sprachen und Frameworks unterstützen und erleichtert Entwicklern das Leben, indem er Vorschläge für ganze Zeilen oder Funktionen direkt in der IDE anbietet. GitHub Copilot wird von OpenAI Codex unterstützt und wurde anhand von Milliarden von Zeilen Open-Source-Code trainiert.

Der letzte Punkt hat die Free Software Foundation (FSF) auf die Palme gebracht, die das Tool als "inakzeptabel und ungerecht aus unserer Sicht" bezeichnet.

Die Verfechter von Open-Source-Software beklagen, dass Copilot geschlossene Software wie Microsofts Visual Studio IDE oder Visual Studio Code Editor benötigt, um zu laufen, und dass es sich um einen "Dienst als Software-Ersatz" handelt, was bedeutet, dass es eine Möglichkeit ist, Einfluss auf die Computer anderer Leute zu nehmen.

Die FSF ist der Meinung, dass es zahlreiche Probleme mit Copilot gibt, die noch vor Gericht geprüft werden müssen.

Entwickler wollen wissen, ob das Training eines neuronalen Netzwerks auf ihrer Software als faire Nutzung angesehen werden kann. Andere, die Copilot möglicherweise nutzen wollen, fragen sich, ob die von GitHub gehosteten Repositories kopierten Codeschnipsel und anderen Elemente zu einer Urheberrechtsverletzung führen könnten. Und selbst wenn alles rechtlich in Ordnung wäre, fragen sich Aktivisten, ob es nicht grundsätzlich unfair ist, wenn ein proprietäres Softwareunternehmen einen Dienst auf der Grundlage seiner Arbeit aufbaut.

Um diese Fragen zu beantworten, hat die FSF zu White Papers aufgerufen, in denen die folgenden Punkte untersucht werden:

  • Ist die Schulung von Copilot auf öffentlichen Repositories eine Urheberrechtsverletzung? Fairer Gebrauch?
  • Wie wahrscheinlich ist es, dass die Ergebnisse von Copilot zu verfolgbaren Ansprüchen wegen Verletzungen von GPL-lizenzierten Werken führen?
  • Können Entwickler, die Copilot verwenden, freie Softwarelizenzen wie die GPL einhalten?
  • Wie können Entwickler sicherstellen, dass Code, an dem sie das Urheberrecht besitzen, gegen von Copilot erzeugte Verletzungen geschützt ist?
  • Wenn Copilot Code generiert, der zu einer Verletzung eines für freie Software lizenzierten Werks führt, wie kann diese Verletzung vom Urheberrechtsinhaber entdeckt werden?
  • Ist ein trainiertes KI/ML-Modell urheberrechtlich geschützt? Wer hält das Urheberrecht?
  • Sollten sich Organisationen wie die FSF für eine Änderung des Urheberrechts in Bezug auf diese Fragen einsetzen?

Die FSF zahlt 500 Dollar für veröffentlichte White Papers und kann weitere Mittel bereitstellen, wenn weitere Untersuchungen gerechtfertigt sind.

Wer einen Beitrag einreichen möchte, kann ihn bis zum 21. August an licensing@fsf.org schicken. Mehr über das Verfahren finden Sie auf fsf.org.

Microsoft hat auf die kommende Herausforderung mit den Worten reagiert: "Dies ist ein neuer Bereich, und wir sind sehr daran interessiert, mit Entwicklern über diese Themen zu diskutieren und die Branche bei der Festlegung angemessener Standards für das Training von KI-Modellen anzuführen."