ChatGPTのこと3/3
このメディカルトリビューンの記事は会員でないと読めないかもしれなけれど、
対話型AIであるChatGPTに米国の医師資格試験(United States Medical Licensing Exam;USMLE)の問題を解かせ、
その結果、ChatGPTは特別な訓練や強化学習を行わずとも合格ラインに近い正答率を示し、整合性の高さや洞察も認められたという記事。
IBMが開発している医療用AI、ワトソンが実用に耐えないという記事が出たのは2018年。
AIの進化は早い。
前回、AI機能をもったロボットが保育士になったり診療を担ったりしたらいいのにと書きましたが、いずれ少なくとも診療の一部は仕事を任せないわけにいかなくなるでしょう。
ヒトは6年間医学部で学び、医師国家試験を受けて、臨床経験を積んだ専門医になるけれど、あらゆる症状、あらゆるバイタルサインから鑑別診断を上げてその妥当性を考え、検査・診断をし、治療方針を決めなくちゃいけない。
それは、どう考えてもAIの方が漏れなく重複なくできるようになる。
先入観や間違った成功体験、私見がない分、ヒトよりいいかもしれない。
AIの医師は、患者さんや他の医療従事者へのハラスメントをしないし、不倫や金銭の授受といった問題を起こさないし、名声や権威を望んだりもしない。
どういう医者にあたるかという属人性が、患者さんの命運を分けることになってはよくないので、AIを使えば医療を受ける側にとって、大きなあたりはずれがなくなるのではないかな。
このニュースが不思議でした。
ChatGPTに優しい兄役になり励ましてもらう、家庭教師役をして指導してもらう、編集者として漫画のストーリー制作を手伝ってもらうというのはとてもいい使い方だと思います。
そういった利用方法を考えつく人を尊敬します。
こういった役割・立場を与えることと記事にあるような「人格を割り当てる」ことはどう違うんだろう?
悪人そうな人格、善人そうな人格を与えたとして、有害性はどう定量しているんだろう?
「人格を割り当てたChatGPTは、初期設定に比べて有害性が最大で6倍」…なんてどういうスケール?
この記事、「ChatGPTよりは『ちゃんとジーミーチー(地道)』」というダジャレに笑いました。
またフランケンシュタイン・コンプレックスや写真を撮られたら魂抜ける系の人なのかと危惧しましたが、平井伸治知事は情報漏えいを心配してのことらしい。
たしかにそれはそうですね。
「泥臭いが地べたをはってでも集めた情報のほうに価値がある」に全面的に同意はしないし、そういった仕事が県の仕事の全てだとは思わないけれど、今はまだジーミーチーの方がいいのでしょう。
毎日、ChatGPTについて誰かの書いたブログやnoteや記事が出て、国が規制をしたり対策を立てたりしようとしているというニュースを見ます。
インターネット普及の前夜には、今の生活が想像できなかったように、AIが普及したら今の私たちが思いもよらない世の中になるんでしょうね。