ChatGPTに対して、編集者はどう付き合ったらよいか

●ChatGPTの登場について

これまでも、生成AIの進化については、技術者のあいだでいろいろ話題になっていました。2022年の半ばごろには、画像生成AIなどが話題になりました。そして、その年の11月にChatGPTが登場しました。それは、驚くほど簡単に、自然な文章を生成してくれます。生成される言葉が、ある意味では人間以上に自然で、そのサービスを使用する人が、あっという間に1億人を超えて行きました。

これまで、GoogleやMicrosoftは、生成された文章が100%正確でないことや悪用のリスクを懸念して、自然言語生成技術の実用化に積極的に取り組むことを避けていました。これらの企業は世界のトップに位置するため、その責任は非常に大きいと考えて、危険性を避けたのだと思われます。しかし、OpenAIのChatGPTは、このような問題に対して、新たなアプローチを試みました。

OpenAIは、ChatGPTが完全に正確でない回答をすることや悪用の可能性があることを認識しながらも、それらの問題は人間の力で乗り越えられると判断しました。この判断には、オープンなAIシステムだという自負と、それゆえ多くの人たちが適切な使い方をしてくれるという信念が根底にあったと思います。結果として、OpenAIはこの技術の開発と普及に賭けることになったのです。そのことによって、ChatGPTは言語生成技術の新たな可能性を切り拓きました。賽は投げられたというわけです。その後のAI業界の状況はまさに、第4次AIブームといわれるようなことになっています。

●ChatGPTと編集プロダクション

ChatGPTが編集プロダクションに与える影響について、次の3つの点が大きいと考えられます。

  • AI技術が小さな企業でも利用可能になったこと。
  • ChatGPTを活用することで、自然言語を用いたプログラミングや文章生成が実現できるようになったこと。
  • 生成された文章に対して、使用する人の責任が問われるようになり、その普及が広がれば広がるほど、編集者としての役割が大きくなったということ(編集者こそ、人が作った、この場合はAIを使用してですが、文章のよしあしを判断する役目があること)。

編集プロダクションとは、出版社の企画に応じて実際に本の編集を行う会社です。そのような業務が存在する理由は、出版社が直接行うよりもコストを削減できるからか、あるいは、その出版社が新しい企画を実現するスキルを持っていないからかのどちらかです。つまり、編集プロダクションのビジネスモデルは、低コストで制作できるか、特別なスキルを持っているかのどちらか(または両方)を選択するしかありません。そのために、編集プロダクションは、利益を出すために編集制作工程の生産性を向上させたり、独自の技術を持ったりできるように日々努力しているわけです。しかし、こうしたことは、なかなか難しい課題でした。

これまで、生産性を向上させることが難しかった理由は、編集プロダクションでは大きな資金投資が難しく、また仕事の内容も版元次第ということが多くて、技術の蓄積ができず、その上IT技術者の獲得もできなかったことが挙げられます。しかし、ChatGPTのようなAI技術が登場したことで、小規模な会社でも工夫次第では生産性を向上させることが可能になります。そして、APIの活用などにより、いろいろな活用法が開発され、場合によっては、それが独自のスキルになったりすることがあり得ます。これにより、編集プロダクション業界にも変化がもたらされることになると思われます。

●ChatGPTの危険性について

現在、いろいろな人たちが、こうした生成AIについての危険性を訴えています。ChatGPTが普及することは世の中にどのような影響を与えるのでしょうか。文章生成AIとしての理想は、ユーザーが「このような文章を作成してほしい」と指示すれば、それに応じた文章が生成されることです。しかし、その際にはいくつかの問題が指摘されています。大きくは、2つの問題が存在すると思われます。

まず一つ目の問題は、使う人間の能力に関する問題です。これには、二つの懸念が言われています。一つは人間の文章作成能力が失われるのではないかという懸念です。これは、一部の仕事がAIに取って代わられることで、人間が文章を書く機会が減ることをも意味します。もう一つは、いろいろな文章が簡単に生成され、それが悪用される可能性があることです。例えば、他人になりすましてフェイクニュースを生成し、世論を誘導するといった悪用が考えられます。このこと自体は、しかしAIのせいではありませんが。

これについては、囲碁や将棋のAIの登場によって、棋士たちの力量が増したことが参考になると思います。つまり、文章生成能力は、使い方によっては使い手の文章生成能力を向上させる可能性があるということです。ひょっとすると、新しい文章表現の仕方が出現するかもしれません。

二つ目の問題は、AIの利用により大量のデータが必要であり、ChatGPTでも膨大なネット上のデータが使われたということです。そして、チューニングするために、使用者の入力も利用されています。ここから二つの問題が指摘されています。一つは、いろいろな情報が漏洩する危険性があることです。個人情報や企業の機密情報など、様々なデータが外部に流出する可能性が考えられます。もう一つは、大量なデータを利用することになりますので、それができるのは限られたプロットフォーマーだけであり、大規模なポータルサイトがテキストやデータを独占的に支配することで、情報の偏りやアクセスの制限が生じる可能性があるということです。

これは、しかし、ChatGPTの問題というより、ネット世界の問題だと思われます。新しい技術の開発には、膨大な資金が必要となり、それを活用できるところが勝利します。そうした状況に拍車がかかるということはあり得ます。GAFAMなどが存在しているのは、その象徴かもしれません。

これらの問題は、放置されるべきではなく、必要に応じて現実的な対策をとり(多分1国だけで処理できる問題ではありませんが)、解決される必要があります。しかし、それには、ChatGPTのようなAI技術の発展や普及を制限するのではなく、使いながら解決することが大事だと思います。技術というものは、みんながオープンに使えるようになることで、評価が可能になるからです。私は、生成AIの技術が独占されることのほうが心配であり、危険だと思っています。

●ChatGPTの使い方について

現在、様々な分野でChatGPTの活用が試みられていますが、どの程度使えるのかはまだ不確かな部分が多いです。今後の活用方法は、日本語のデータがどの程度デジタル化されて利用されるかによって変わる可能性もあります。現状では、主に英語圏のデータを中心として学習が行われていますが、それでもGPT4では、かなり素晴らしい文章を生成してくれます。

そんな中で、編集者としては、すぐに現実的な問題に直面することになります。まず一つ目の問題は、ChatGPTで生成された文章が増えてきたとき、編集者として、どのようにこれらの文章に対処するかという問題です。さらに、二つ目の問題としては、編集作業の中でどのようにこの技術を活用していくかという問題です。これらの問題を現実的に解決して行くためには、ネットなどで情報を入手すると同時に、実際に自分たちで試してみることが重要です。

まずは、簡単な原稿作成にChatGPTを活用してみることから始めましょう。最も簡単な使い方としては、用語の解説を依頼することが挙げられます。また、自分では解決できない問題をChatGPTに解かせることも試してみる価値があります。これらの方法を試すことで、実際の編集作業におけるChatGPTの有用性を確かめることができます。さらに高度な使い方としては、プロンプトエンジニアリングを考えてみることが必要です。ChatGPTは、質問の仕方によって、応答の質が変わってくるからです。ゴミのような質問には、ゴミのような回答が返ってくるだけです。

中田敦彦は、ChatGPTの使い方としては、入力(質問)が7割、調整(追加指示)が3割だと言っています。そして、入力では、①役割を与えること(あなたは小学校の先生ですなど)、②制限をかけること(箇条書きで書いてくださいなど)、③前提を与えること(これは、ブログの記事ですなど)が大切だと言っていました。ChatGPTは、原理的には、入力の内容に対応して、次にどんな言葉を使うべきかを大量のデータで学習し、確率的に選択しているだけです。それだからこそ、役割演技が得意です。こうした、プロンプトエンジニアリングは、ChatGPTと付き合って行く上で、こらから大切になってくる技能だと思われます。

●著作権などの問題について

現時点では、AIによって生成された画像や文章には著作権が認められていません。著作権法によれば、著作物とは「思想又は感情を創作的に表現したもの」と定義されていて、AIには思想や感情はないとされているからです。というより、著作権は人間が創造したものにしか適用されないと言ったほうがよいかもしれません。しかし、将来的には、プロンプトエンジニアリングの進展に伴って、AIで作成した画像や文章も、プロンプトを作成した人間の創作物として認められる可能性はあります。

また、AIの学習に著作権のある文章や画像が使われることは日本の著作権法では、許容されています。つまり「著作物に表現された思想又は感情の享受を目的としない利用」として、30条で「情報解析」をすることが許されています。現状では、大規模言語モデル(LLM)で学習したデータは、基本的に学習済みのデータと同じものを生成するわけではないため、学習した著作物と同じものを生成することは考えにくいです。ただし、似たような表現になることはあるでしょう。今後、似たような表現が生成されるようになると、著作権に関する問題が生じるかもしれません。しかし、この問題は今後さらに検討が必要な課題です。

生成AIなどの生成物については、それをどのようにして作ったかなどを記録に残しておくといいと言われています。そのことによって、生成物の著作権が認められることになるかもしれないからです。アメリカでは、そうした判例も出てきています。むしろ、生成物が著作権で保護されませんので、AIで生成されたものにはいまのところ、著作権はなく、モラル的には問題がありそうですが、許可なく利用できることになっています。

※ChatGPTは、実は、著作権の考え方に大きな疑問を提出していると思います。著作権では、人間が生成した文章には、特別の場合を除いて、ほとんど著作権があるとしています。子どもが書いた日記や作文、また、普通の人が書いたメールにも著作権があります。そこには、「思想又は感情を創作的に表現したもの」という規定があります。人間以上に自然言語を流暢に扱い、自然言語での文章を生成できてしまうということで、この「思想又は感情」及び「創作的に表現すること」が問われてきます。デジタルデータとして見た場合、AIが作った文章と人間が作った文章との区別がつかなくなったという事態になったわけです。それは、ひっそりと、AIで作られた文章が、著作物となって流通するという可能性でもあります。

ところで、編集者にとっても現段階での大きな問題は、著作権というよりも、生成された文章が事実に基づいているのか、正確な情報を伝えているのかといった点だと思います。生成物を利用するには、そのまま使うのではなく、ファクトチェックをして、多少表現の工夫をするなどして使ったほうがよさそうです。できるだけ、AIを道具として利用し、編集者が作った文章にしていくことが大事だと思います。そうすれば、独自の著作物になると思われます。

また、ChatGPTでは、ファインチューニングが施されているとはいえ、生成された文章が差別的な内容になってしまったり、バイアスのかかった生成物になってしまったりする可能性も排除できません。このような問題に対処することこそ、編集者の腕が試される場面となります。

●生成AIとの付き合い方について

最後に、いままでの文章をChatGPTに読み込ませた上で、ChatGPTと共存していくための基本的な考え方をChatGPTに回答してもらいました。回答は以下の通りです。

①    責任ある使用:ChatGPTを利用する際は、悪用のリスクを十分に理解し、適切かつ責任ある方法で使用しましょう。偽情報の拡散や不適切な内容の生成を避けるように心掛けましょう。
 
②    人間の判断と監督:AIは完全ではないため、生成された文章が事実に基づいているか、正確かどうかを確認するために、人間の判断と監督が必要です。編集者や専門家が、AIの出力を検証し、適切な情報を提供する役割を担いましょう。

③ 継続的な学習と改善:ChatGPTやその他のAI技術は、継続的に改善されていくものです。新しいデータやフィードバックを活用し、AIの性能を向上させることが重要です。
 
④     オープンな議論と協力:AI技術の影響に関するオープンな議論と業界や利害関係者との協力が重要です。技術の潜在的なリスクや課題を共有し、解決策を見つけるために協力しましょう。

⑤ 倫理的な指針と法規制の遵守:ChatGPTの開発者や利用者は、倫理的な指針や法規制を遵守することが必要です。これにより、技術が社会全体の利益に役立つようになります。
 

その通りだと思います。このような考え方を大切にし、ChatGPTや他のAI技術を活用することで、私たち編集プロダクションでも、より効率的で豊かな未来を創り出すことができると思われます。

(文責:東京オフィス 塚本鈴夫)