chatgptが嘘をつくことがある。なぜなら、以前紹介した韓国の知人のchatgptに関する電子ブックでは、
《生成型AIはまだ完璧な結果を生成することが難しい問題点があります。chatGPTが学習されたデータに基づいて予測を行うため、学習データの限界や偏向性などが結果に反映されることがあります。つまり、実際のファクトではない嘘をつくこともできます。chatGPTはまるで人が作成したかのように滑らかな文章をもっともらしくします。しかし、chatGPTが情報の言うことを本当に理解したわけではありません。さまざまなデータの中での正解確率の高い回答を作るだけです。
また、人間の創意性や直観力のような側面は、いまだにchatGPTが正しく理解し処理することが難しいです。この部分はchatGPT4バージョンから良くなりましたが、今回の本は無料バージョンのchatGPT3.5基準で作成しました。 したがって、生成型AIを使用する際には結果を検証し、必要に応じて修正したり補完するなど、人間の判断とともに使用しなければなりません。》
とある。
やはり、人間の判断が必要なのだ。いまのところ、ちょっと安心です。
chatgpt3.5が嘘をつく例を一つ上げると、
質問:日本語教育は競合が激しく、資格や経験などのスキルアップが求められるということですが、具体的にはどのようなことですか。
ChatGPTの答え:
日本語教育において、資格や経験などのスキルアップが求められる点として、以下のようなものがあります。
- 資格取得 :日本語教育の分野には、日本語教育能力検定試験(JLPT)や、日本語教育能力検定試験試験官、日本語教育能力検定試験講師などの資格があります。これらの資格を取得することで、日本語教育のスキルを証明でき、競争力を高めることができます。
日本語教育者の資格として、上記の日本語教育能力検定試験官、日本語教育能力試験講師という資格はありません。
人間によるファクトチェック(事実確認)は必ず必要ということのようです。