仕事先で、AIの話になって、私が司法書士の勉強をしていることを知っている上司が、
「司法書士の業務にchatGPTは使えるの?」
と聞いてきました。
多少は使えるけれど、他の分野と違って、特に大規模言語のAIモデルはまだまだ時期尚早な感じがします。
言語依存なところが多く、言葉の取りちがいが頻繁に起きて、それはchatGPTが悪いわけではなく、むしろ、そういう誤解を生じやすい言葉を使う法律業界がおかしいとさえ思ってしまいます。
なにぶん、現場に出てない私がいうのもおかしいですが、少なくとも、試験勉強を通じて触れる文章で言うと、端的な例で言えば、
「AはBである」
と言われると、きっと原則を行っているのだろうなと思うから、たとえ例外的にAはBとならない場合も、正しい!といいます。
でも、
「Aは必ずBである」
と言われると、これは例外があるから間違い!と言うわけです。
別の例で言うと、
「あの人の言うことはいつも正しいと言うわけではない」
という文章。どこで切るかで大違いです。普通は、雰囲気で、
「あの人の言うことは、いつも正しい、というわけではない」
と思い、たまには間違うこともあるだろうと思うわけです。
でもchatGPTは頻繁にこれを、
「あの人の言うことは、いつも、正しいと言うわけではない」
つまり、
「あの人の言うことは、いつも、正しくない」
と解釈するんです。
周りくどい文章を使うからおかしいんですけどね。
まぁ、これはどちらかというと法律業界というより、法律系資格試験の問題文章、というべきかもしれませんが。
あとは、正確に言おうと思えば思うほど、膨大な文章になる。
だからと言って、これは常識ですよね、というところを信じて、簡単に書くと、一般人は誤解しまくる。
そんな感じかな。
なので、ある程度、ユーザーの方で法律文章を整理して、chatGPTに与える文章、あるいは一般的なAIに食わせるデータを用意しないと、なんともならない気がします。
雰囲気、六法全書と判例を全部AIに食わせれば、なんとかなるはずなのですが・・・それがうまくいかない。
仏典をサンスクリット語も込みで全部AIに食わせて、AIお坊さんを作ることができるはずなのに、確かこれ、大学の哲学の先生が宗教家とやってたはずですが、未だ試行錯誤中のようですし。
でも10年先くらいにはできるかなぁ。
コメント