banner

ニュース

Mar 14, 2024

AI チャットボットの虚偽を吐き出す傾向が課題を引き起こす

ChatGPT のような人工知能 (AI) チャットボットが虚偽の情報を生成する問題は、企業、組織、個人にとって懸念が高まっています。 この問題は、心理療法から法律準備書面まで、さまざまな分野に影響を及ぼします。 AI チャットボット Claude 2 の共同創設者であるダニエラ・アモデイ氏は、現在のすべてのモデルは主に次の単語を予測するように設計されており、予測が不正確になることが多いため、ある程度の「幻覚」に悩まされていることを認めています。 ChatGPT を作成した Anthropic や OpenAI などの開発者は、この問題に対処し、AI システムの信頼性を向上させるために積極的に取り組んでいます。

しかし、この分野の専門家は、この問題を完全に根絶するのは不可能かもしれないと示唆しています。 言語学教授のエミリー・ベンダー氏は、AI テクノロジーとその提案されたユースケースの不一致により、固有の制限が生じていると説明しています。 生成 AI テクノロジーの信頼性は非常に重要であり、世界経済への貢献は 2 兆 6000 億ドルから 4 兆 4000 億ドルと予測されています。 たとえば、Google は正確性の必要性を強調し、報道機関にニュース執筆 AI 製品を提供することを目指しています。

虚偽の情報の影響は、書かれた文章を超えて広がります。 コンピューター科学者のガネーシュ・バグラー氏は、インドのホテル管理機関と協力して、AI システムを活用してレシピを考案しています。 不正確な出力は食事の味と品質に大きな違いをもたらす可能性があり、生成 AI の精度の必要性を強調しています。

OpenAIの最高経営責任者(CEO)サム・アルトマン氏は、AIシステムが誤った情報を生成する傾向を改善することに依然として楽観的だが、ベンダー氏のような懐疑論者は、改善だけでは不十分かもしれないと主張している。 言語モデルは主にトレーニング データに基づいて単語シーケンスを予測するように設計されており、言語モデルが生成する出力は事実に基づく情報ではなく、基本的に創造的な文章です。 これらのモデルは、読者が特定するのが難しい微妙な方法で失敗する傾向があります。

懸念にもかかわらず、一部の企業は、AI チャットボットが誤った情報を生成する傾向を貴重な機能と見なしています。 Jasper AI のようなマーケティング会社は、AI のクリエイティブな出力を活用して、クライアントの売り込みのためのユニークなアイデアを生成します。 しかし、正確なコンテンツに対する需要は依然として高く、Google などの企業がこの問題に対処する取り組みを進めています。

ビル・ゲイツや他の AI 支持者は、AI モデルが事実とフィクションを区別できるように改善できると楽観的です。 それにもかかわらず、将来的に AI によって生成されたテキストで完全な正確さが達成できるかどうかはまだわかりません。

共有