今、チャットGPTが流行っています
チャットGPT(C-GPT)は、イーロン・マスク氏が作ったオープンAI社の商品名で、生成(ジェネレーティブ)AIと呼ばれる、文章形式の出力を行うソフトウエアです。多数の事例を参考にしての質問に対して最善の回答を行うもので、文章形式の問いを分析して、一つあるいは複数の事例を集めて辻褄が会うように文章形式で回答します。つまり、生成AIとは最後のつじつまが合うように文章化するのが、従来のAIに付け加えられた機能と言えるでしょう。
しかし、不十分な事例集(データベースDB)を参考にすれば、完全な回答をできませんが、それでも、現在のDBは情報蓄積量が多いので、間違えていると気づくことは殆ど無いでしょう。これがAIと付き合う時に、私達が気を付けなければならない点です。質問をしたら、一見理路整然とした答えを出されたら、信じたくなりますよね。
さて、AIは、使用する事例集の中からどれを回答として選ぶかで回答が変わります。囲碁や将棋のAIは、常に最善の手を回答します。これは、数学や物理の問題でも同じです。しかし、例えば政治的な問題として共産主義と民主主義との比較をAIに求めると、評価や判断が多岐にわたるため最善の回答を探し出すのは困難でしょう。この様に非科学的な人文的な課題では、世界中のDBを検索しても、データの傾向が数的あるいは論理的に偏っていれば、AIの回答は偏ります。
オープンAI社が世界中のDBから、どの様に回答を選び出すか私には分りません。ソフトを作る立場としては、多数決で回答を選ぶのが簡単です。この場合、DBが作為的に作られた場合、例えば、悪意を持つ勢力が偽情報をインターネット上に多量にばらまくと、それが正しいとAIが思いこむ危険が有ります。特に歴史や道徳、倫理、宗教などの問題はこの種の攻撃に弱く、使う側でもこの種の質問をAIに問うのは危険です。
生成AIを使う時に、例えば知識量が少ない学生が、宿題のレポートを生成AIの答えを信じてしまうかもしれません。さらに、最高学府を卒業したお役人でも、専門分野が違えば、生成AIを使いたくなり、偽情報を仕込んだ勢力の思惑に乗ってしまう危険が有ります。
しかし、AIの使用を禁止することは、情報の見落としや、資料の処理に時間をとられてお役所にとって好ましい事ではありません。そこで、現在多くの自治体は文章の要約や翻訳、あいさつ文作成の使用に限り、個人情報や機密情報を生成AIに与えないことを条件にした使用のガイドラインを作り、むしろ活用しようとしています。
しかし、生成AIには政治的な偏りがあるかもしれません。例えばGoogleの2番目の株主のBlockRock社のCEOのラリー・フィンクはジョージ・ソロスと並ぶ大物グローバリストです。米国では、かつてのツイッターと同じ様に、会長の個人的思想が会社の経営に反映されることが多く、彼の考えがGoogleが提供するデータに影響するかもしれません。
ガイドラインは複数の職員で誤りや公平性、著作権の誤りが無いことを確認するように、と指導していますが、政治や宗教上の偏りを考慮までしていないと思いますし、お役人には生成AIの誤りを指摘できるだけの専門性を要求されないでしょう。そもそも、専門性が無いので生成Aiを使いたいわけですから無理な話です。
と、言う訳で生成AIで文書を創るのは危険です。例えあいさつ文でも歴史や宗教に関わる内容が有れば、無知をさらすことになります。結局は、これらに気を付けながら、複数意見と資料を自分で選んで取りまとめることです。上に示す漫画の様に、AIに任せておくと重大な失敗をするかもしれません。お使いになるなら自己責任で、気を付けください。
最後に、もしプロの物書きを自認されるなら、使うのは危険です。あの何となく押しつけがましい文体は、AIを使って書いたことがバレるかもしれません。