海外コメンタリー

GitHubのAIプログラミング支援機能「Copilot」、著作権や倫理の問題は?

Steven J. Vaughan-Nichols (Special to ZDNET.com) 翻訳校正: 石橋啓一郎

2022-07-21 06:30

 Microsoftの人工知能(AI)ペアプログラミングサービスである「GitHub Copilot」は、リリースされてからまだ1カ月も経っていないにもかかわらず、高い人気を博している。GitHubによれば、テクニカルプレビューの段階でも、この機能が有効化されたファイルではコードの40%近くがCopilotによって書かれていたという

 この機能は、エディターの中で直接、開発者に次に書くコードを提案してくれるもので、Microsoftの「Visual Studio Code」や「Neovim」、「JetBrains」などの統合開発環境(IDE)に対応している。このAIは、これらの開発環境の中で、開発者が入力していくに従って、コードの次の行を提案する能力を持っている。

 このプログラムは、メソッドや複雑なアルゴリズムを補完してくれるほか、定型的なコードを挿入してくれたり、単体テストの支援をしてくれたりする。バックエンドで使われているエンジンのAIが、実質的にペアプログラミングのアシスタントのような働きをしてくれるわけだ。

 このプログラムは、Microsoft、GitHub、OpenAIの協力によって生まれたもので、OpenAIの「Codex」をベースにしている。Codexは、一般に公開されている何十億行ものソースコード(これにはGitHubで公開されているレポジトリが含まれる)と自然言語のテキストを使ってトレーニングされたもので、プログラミングと人間の言葉の両方を理解することができる。

 まるで夢のような話だ。しかし、そこにはかなり大きな問題が残っている。Codexが独自サービスの基盤を構築するためにオープンソースのコードを使用する権利があるかどうかについて、法律の面から疑う声があるのだ。また仮に合法だとしても、MicrosoftやOpenAI、GitHub、そしてCopilotのユーザーが、Copilotが「書いた」コードを利用することが倫理的に許されるのかどうかについても疑問視する意見がある。

 GitHubの最高経営責任者(CEO)であるNat Friedman氏は、Copilotがベータ版としてリリースされた際、GitHubに法的な問題はないと述べている。これは、「公開情報を使って機械学習システムをトレーニングすることはフェアユースにあたる」ためだという。ただし同氏は、「知的財産権とAIの関係は、今後世界中で興味深い政策議論の対象になるだろう」とも指摘している。確かにその通りだろう。

ZDNET Japan 記事を毎朝メールでまとめ読み(登録無料)

ZDNET Japan クイックポール

注目している大規模言語モデル(LLM)を教えてください

NEWSLETTERS

エンタープライズ・コンピューティングの最前線を配信

ZDNET Japanは、CIOとITマネージャーを対象に、ビジネス課題の解決とITを活用した新たな価値創造を支援します。
ITビジネス全般については、CNET Japanをご覧ください。

このサイトでは、利用状況の把握や広告配信などのために、Cookieなどを使用してアクセスデータを取得・利用しています。 これ以降ページを遷移した場合、Cookieなどの設定や使用に同意したことになります。
Cookieなどの設定や使用の詳細、オプトアウトについては詳細をご覧ください。
[ 閉じる ]