Oltre ai già citati problemi relativi a suggerimenti inadeguati e a sintassi da ottimizzare, sorgono anche discussioni sulla fondamentale ponderatezza degli errori di codice che si verificano attualmente con GitHub Copilot o che potrebbero verificarsi in futuro. Dal momento che la base attraverso la quale l’IA dovrebbe imparare è spesso fallace o perlomeno non testata, il risultato finale è troppo spesso incerto. Nonostante si sottolinei che tutti gli input forniti dall’IA debbano essere controllati, è quantomeno discutibile se questo possa effettivamente tradursi in un vantaggio per il lavoro quotidiano a lungo termine. Nei test precedenti, il codice di GitHub Copilot ha spesso ottenuto scarsi risultati.
Alcuni sviluppatori temono inoltre che l’uso di Copilot in Git possa potenzialmente portare a una violazione del copyright, qualora l’IA si impossessi direttamente di interi blocchi di codice. Sebbene ci siano diversi regolamenti per garantirne un funzionamento corretto, non è certo che i successi di apprendimento di un’IA rientrino all’interno di essi. Tutto ciò è tanto più vero se GitHub Copilot potrà essere utilizzato in futuro anche per scopi commerciali. L’azienda stessa spiega che fin d’ora sono solo pochi i codici sorgente ripresi completamente o parzialmente inalterati. Con un aumento dei successi nell’apprendimento, questa cifra dovrebbe diminuire ulteriormente.