メディア

ChatGPTは怖くない 〜使い倒してラクをせよ踊るバズワード 〜Behind the Buzzword(18)(10/11 ページ)

» 2023年05月15日 11時30分 公開
[江端智一EE Times Japan]

ChatGPTで「ラク」をすればいい

 さて、今後のChatGPTについて私の期待を語って、本コラムを終えたいと思います。

 ChatGPTは、Generative AI(生成型AI)として、優れたアプリケーションではあるのですが、私は、Generative AIそのものよりも、その一部である「自然言語インタフェース」と「記載のバランシング」機能に着目しています。

 このような人間に対する優れた言語ベースのユーザーインタフェースは、さまざまな工業分野への展開が期待できると思います。上の表に記載したような、各種のメンテナンスや、秒単位での対応を要求される緊急オペレーションなどに、これらのインタフェース技術が展開されることを期待しています。

 スリーマイルアイランド原発事故においては、設計時には想定されていなかった運転員のエラーにより事故が発生し、中央制御室は、100を越える警報が一斉に点灯して、何が起きたのか判断できなくなる状態になったそうです。これを、「クリスマスツリー(警報雪崩)」と呼ぶのだそうです。

 比して、福島原発事故においては全電源喪失となり、いわゆる「逆クリスマスツリー(警報無言)」(命名 江端)となった訳です。

 今まで、ピカピカ点滅していた装置、監視用モニター、そして原発の健全性を証明する計器が、一瞬で全部沈黙。叩こうが蹴ろうがピクとも動かない。そして、多重に準備されたバックアップ電源が、津波による水没で一気に(多分1分内くらいで)全滅。

 このような、システム運用者にとっては考えたくもない状態に対応できるようなAI技術の応用を、私は期待しています。



 それでは、今回のコラムの内容をまとめてみたいと思います。

【1】EE Times Japanの編集担当のMさんから「ChatGPTについて執筆してください」と依頼を受けて、ChatGPTについて調査を開始しました。

【2】ChatGPTについて簡単な使い方を説明し、その内容について(1)「『江端智一について教えて』という質問」と(2)「江端が執筆してきた論文の概要」についてChatGPTにから回答を得ました。この(1)(2)に限れば、ChatGPTは、50〜100%デタラメな回答をした、という実験結果を報告しました。

【3】Google Trendを使って、ChatGPTの知名度の変化を調べたところ、2022年11月下旬から、世界、日本ともに爆発して上昇していること、また、Google Scholarを使った”ChatGPT”を含む論文数を調べた結果も、同様の傾向が観測されることが分かりました。

【4】ChatGPTの作り方について、(A)「私」「リ・ワードさん」「ChatGPT君」という3人を登場させた擬人化での説明、(B)一般の方向けのざっくりした説明、(C)AI研究者、エンジニア向けに、論文で用いられている用語を使った説明の、3つのアプローチでの解説をしました。

【5】上記の検討の結果を踏まえて、(A)『ChatGPTが知性をもったAI』であるという世間の誤解、(B)『ChatGPTは恐ろしく便利な道具であれ、使い倒せば良い』という江端の見解、(C)『ChatGPTを恐れる理由はない』という江端の楽観的スタンス、(D)ChatGPTのAI研究者の執念を垣間みた江端の、自分の能力や根性の欠落に対する落胆および、(E)ChatGPTのインタフェースの江端の他の分野の適用への期待について、私見を述べました。


 以上です。

 ―― と、本コラムのリリース後に、ChatGPTがこういう風にまとめてくれることを、私は期待しています

ChatGPTで「ラクをすればいい」

 今回のコラムの趣旨は、ChatGPTの登場で、私たちはどうすれば良いのか、に関する検討、考察にありました。

 私の結論は明確です。さらにラクをすればいい ―― この一択です

私が、ワープロを入手した時のように、ChatGPTが、多くの人にとって、人生のシンギュラリティポイントになるなら、こんなにステキなことはない、と思っています。

 このように、総じて、今回の技術的な調査を経て、私は、ChatGPTに関して、脳内お花畑のような楽観主義で洗脳されています。

 ですので、イーロン・マスク氏が、ChatGPTの最新版言語モデル「GPT-4」を上回るシステムの開発を6カ月間停止するよう求める、AIの専門家や業界幹部らが共同制作した公開書簡に署名したことや、イタリア政府によるChatGPTの使用の一時制限について ―― 私は、そのリスクを理解はしているのですが(セキュリティやプライバシーの問題) ―― それは、オンラインのメンテナンスで十分対応できる範疇の内容に思えるのです。

 正直に言って、停止させたり、使用制限させたりするほどのことかな?と思っています。私は今、「Googleストリートビュー」の時の、あの騒ぎを思い出しています(筆者のブログ)。ちなみに、「グーグルマップ ストリートビュー」に対して、差し止め裁判を起こした、日本国内の町内会、自治会は、全て裁判を取り下げています。

 私なら ―― 単純な技術的手法になりますが ―― GPT-3に使っているコーパスに対する人間による評価値をもっと厳しくして作り直すとか、Reward Modelの出力値をコントロールするとか、KLの抑制パラメータ値を調整するとか、そんなことを要求するかもしれません。やり方はいろいろあると思うのです。

 今回のコラムの調査で、私は「分かった気になっているだけ」かもしれません。何か、とてつもない重大なリスクを見落しているのかもしれません。それに気がつかれている方は、当方にご一報いただければ幸いと存じます(本件に関するメールアドレスはover_the_ai@kobore.netです)。

Copyright © ITmedia, Inc. All Rights Reserved.

RSSフィード

公式SNS

All material on this site Copyright © ITmedia, Inc. All Rights Reserved.
This site contains articles under license from AspenCore LLC.