しかし、多くの専門家や私も、特に非英語圏の人々にとってはAI生成コンテンツをチェックするための実用的なツールではないということに気付きました。私のテストでは、OpenAIのAI分類器が人間によるコンテンツをAI生成としてラベル付けしていました。この仕組みについて会社が公開していないため、記事の文法、句読点、スペル、フォーマットをチェックしてGPTモデルのフォーマットと一致するかどうかを見つけるようです。AIは一般的に人間よりも賢く、ミスをする傾向がありますが、文法的に完璧でフォーマットが整ったコンテンツを書くためのいくつかのツールがあります。
OpenAIのテキスト分類器とは何ですか?
このツールは、コンテンツが人間によって書かれたものか機械によって書かれたものかを判断します。これはChatGPTを作成した同じ研究機関によって開発されました。その目的は、誤情報キャンペーン、学術的な詐欺、およびチャットボットによる人間のなりすましを防ぐことです。ニューヨーク市とシアトルの公立学校など、いくつかの機関では学生や教師によるChatGPTの使用を禁止しており、一部の企業ではAGIツールの使用を禁止しています。
AI言語モデルは、書かれたテキストを含む大量のデータで訓練されており、これによりAGIは人間の行動を模倣することができます。これにより、会話形式のコンテンツの生成や人間レベルの流暢な自然言語の理解が可能になります。モデルは時間とともに進化し続けます。会社は2019年にこの検出器を発表し、それと同時に大規模言語モデル(LLM)も発表しました。
このツールは無料で利用でき、コンテンツをチェックするためには最低1000文字(約150〜250語)を入力してテストを実施する必要があります。テストが終了すると、以下の範囲内で評価を共有します:
- 非常にありそうもない:10%未満の確率
- ありそうもない:10%から45%の確率
- それがどうかは不明:45%から90%の確率
- 可能性がある:90%から98%の確率
- ありそう:98%以上の確率
一方、学校や大学向けにはTurnitinというプラグラリズム対策のツールもありますが、その正確性は不明です。現在、メリーランド大学のコンピュータ科学者による最近の研究によると、Turnitinは最も優れた分類器の1つです。人間による生成コンテンツは、完璧な記事とは異なり、貼り付けるサンプルテキストによりランダム性が高いとされていますので、OpenAIのAI分類器に完全に依存せず、一部の情報を信じる際には注意が必要です。
なぜOpenAIのAI分類器は廃止されたのですか?
このツールはかなりの人気を得ていますが、現時点ではコンテンツが100%AIによって書かれたものかどうかを判断することは不可能です。細かい編集を加えることで、分類器を簡単に回避することができます。OpenAIの分類器に関する問題に続いて、会社はこのコンテンツがAIによって生成されたことを示す唯一の証拠ではないと述べました。
OpenAIは、AI分類器の正確性が低いため、リリースから6ヶ月以内にAI分類器を廃止しました。OpenAIの分類器は混乱を引き起こすと非難され、批判されたため、同社はすべてのフィードバックを収集し、AI生成コンテンツを検出するためのより効果的な方法を研究することでAI分類器を改善していると述べました。同社はこの問題を解決するために取り組んでおり、最近、マイクロソフトが次世代の機械学習技術の安全な使用を支援すると約束したデジタルウォーターマークを開発するためのラボに出資しました。
公正さ、説明責任、透明性を確保するために、機械生成コンテンツを検出するツールを持つことは重要です。このコンテンツが増えるにつれて、バイアスや誤情報に対抗するためのツールと保護策が必要です。また、これらのツールだけに頼ることはできません。連邦取引委員会(FTC)はOpenAIの情報とデータの審査手続きを調査していますが、OpenAIはまだ報告書を公開していません。
一部のテキストは簡単に検出できますが、一部はそうではありません。また、検出されたとしても、表現を調整することで回避することができます。OpenAIを含む主要な人工汎用知能研究企業全体で、頑丈なウォーターマーキングおよび/または検出方法が見られるかもしれません。彼らはホワイトハウス主導の「自主的なコミットメント」に参加し、AIを倫理的かつ透明に開発することを約束しています。これらの行動は、AGIの使用と、セーフガードを構築するために装備された生成AIツールの背後にある技術について懸念を引き起こします。