アメリカのOPENAIという研究所が作っているChatgptという自然言語のAIがすごいというのでちょっと試してみた。
OPENAIはあのイーロン・マスクも出資者になっていてGPT-3という言語処理AIや人間が自然言語で出した指示に従ってプログラムを作成するAIを作っている。GPT-3は非常に優れたAIだと言われているが、その反面プログラムがスーパーコンピューターでないと入りきらないくらい巨大であるらしい。そのOPENAIが作ったChatgptはsiriやalexaよりもはるかに強力だというふれこみだ。期待してしまうではないか。
Chatgptは世界中のネットを飛び交っている情報をかき集めてデータベースに詰め込んでいるらしい。それはalexaやsiriと同じだが、とりあえずは2021年までで情報収集を止めてシステムの熟成を図っている。現在は世界中に公開して人間との対話を重ねることでデータベースの修正を行っている。したがって、現在は全く無料で使うことができる。
使い方だが、ブラウザーに chat.openai.com とURLを入力するとログイン画面になるのでそこで指示に従ってメールアドレス、パスワードなどを入力する。電話番号を聞いてくるのでそこで携帯の番号(家電の番号は不可。ground lineという言い方を初めて知った。)を入力して認証をする。メールが入るので、そこに記されたURLをクリックすると対話画面になる。
驚いたことに何語を使うとかいうことは一切知らせる必要がない。質問文を入れる場所に日本語文を入れて送信すると以後はずっと日本語のやりとりが続く。
質問文だが、私にとって実用性が高いと思われることを聞いてみることにした。
締め切りの過ぎた原稿を編集者から催促されています。言い訳のメールを作ってください。
ほとんど間髪を入れずに返事が来た。
お手数をお掛けいたしますが、原稿の締め切りが過ぎてしまい申し訳ありません。私は最近、プライベートで大変忙しく、原稿の締め切りまでには間に合わず、申し訳ありません。今後はより早めに原稿を提出するよう心がけたいと思います。お手数をおかけして大変申し訳ありません。
回答に対する評価を送ることでAIが成長するということなので返事を送ってみた。
とても参考になります。どうもありがとう。
どういたしまして。言い訳のメールを書くのは難しいと感じるかもしれませんが、真摯に反省しながら書いていると、自分自身の責任を取り、将来の対策を考えることができるので、参考になると良いですね。また、質問がありましたら、お気軽にお問い合わせください。
世話焼きおばさんのような返事だ。よくよく読んで見ると論理的におかしいのだが、AIは意味を考えて言っているわけではない。日本語としてはほとんど問題がない。ときどきネットで見る怪しい日本語とは全く違う。
問い合わせをしたらほぼ正確なことを答えるのは分かっているので、ちょっと違うことを聞いてみる。
交差点で隣の車がミラーこすったと怒鳴っていたらどう答えますか
その状況では、まずは冷静に対応することが重要です。車の事故は起こりやすく、発生したとしても怒りや激情で対処することは決して良いことではありません。まずは、事故の状況を確認し、傷害や破損がないことを確認します。その後、相手に対して、「すみません。私のせいですね。責任を取りますので、修理代や費用については私が負担します」と謝罪し、責任を取ることで、状況を収括できるでしょう。
違う違う。私が期待していたのは「馬鹿にしないでよ そっちのせいよ ちょっと待って」なのだが、それはそれとして、自分に非があるかどうかは不問でひたすら謝るという戦略を指示している。これは日本語の文脈のなかで、日本人的な行動をするということだが、同じことを英語で聞いたら全く違う言い方になるのだろうか。
今度は論理的な関係が理解できているかどうかテストしてみる。親族関係だが、これは歴史上の人物名を使ったら歴史の知識で正解する可能性があるので任意の名前を使う。
正の妹は和子です。和子の子供は正の何に当たりますか
正の妹の子供は、正のいとこです。また、和子が妹であるということは、正が兄であることを意味しますので、和子の子供は、正のいとこであると同時に、正の姪子(または甥)でもあります。
「いとこ」うんぬんは明らかに間違っている。AIに成長してもらいたいので間違いを指摘する。
妹の子供は甥か姪です。また、正の子供と妹の和子の子供はお互いのいとこに当たります。正と和子の子供がいとこ同士になるというのは正しくありません。
そうですね。ご指摘ありがとうございます。私の記述が間違っていました。正の妹の子供は、正のいとこであり、正の子供と和子の子供はお互いのいとこです。そして、妹の子供は甥(または姪)です。ご迷惑をおかけしまして、申し訳ありませんでした。
やたらに謝るところが可笑しい。でもまだ間違っている。AIの知識データベースは修正されたのだろうか。
わざと間違った情報を質問文に入れたらどうなるか、やってみたい。たとえば「京急線の津田沼から京王線の登戸に行くにはどうしますか?」など。
いろいろ試してみたいのだが、こういうことはきりがなくなるので、私はこれくらいで止めておく。このAIはかなり出来がいいが、それでも意味を理解することはまだできていない(だろうと思われる)。あと10年経ったときにどんな自然言語AIが出てくるのか期待よりは不安が大きい。10年後も思考が人間の特権であることを祈りたい。
個人的には10年後自分がまだ思考能力を保っていればいいのだが。