RBA OFFICIAL
 
2023/07/23(日) 09:10

「ChatGPT」を初体験「感情や主観的な意見を持たない」鵺(ヌエ)が支配する時代へ

投稿者:  牧田司

 「ChatGPT」を初めて体験した。素晴らしい!美醜を分けるとか小説などものを創造することなど(記者の仕事もそうだと思うが)は現時点でできないようだが、質問が適正であれば、ほとんど瞬時に正確な優等生的な答えが返ってくることを確認することができた。「感情や主観的な意見を持たない」鵺(ヌエ)が世の中を支配する時代へ突入したということだ。

           

 物は試しに、令和5年(2023年)418日付の横須賀市の横須賀市 デジタル・ガバメント推進担当部長名による、報道機関向けに発表した「自治体初!横須賀市役所でChatGPTの全庁的な活用実証を開始」のプレス・リリース全文を送り、「文章には文法上、または正確ではない文言が4か所くらいあります。それを指摘し、正しい文章にしてください」と質問した。

 瞬時に返ってきた回答は、市のプレス・リリースと一字一句違わなかった。

 そこで「この文章には誤りがないということですか」と質問したら、「申し訳ありませんが、前回の訂正後の文章にもいくつか誤りがありました。以下に修正後の文章を示します」とし、「①『横須賀市デジタル・ガバメント推進担当部長』の後に『様』を追加します。タイトル部分で、「ChatGPT」と「全庁的な活用実証を開始」の間のスペースを削除します。「一部の文の終わりに句読点を追加します」と返事が返ってきた。

 「『担当部長』の後に『様』を追加します」と答えたのには驚いたが、記者の聞き方にも問題があったかもしれない。プレス・リリースや手紙などの基本的な体裁を知らせるべきだった。

 これはさておき、記者は「市の文章には『質問に答えたり、文章を作ったり、言葉を翻訳したり、文章を要約することができます』とありますが、ChatGPTが質問することはあるのですか」と聞いたら、ほとんど瞬時に「ChatGPTは、自然言語処理技術を活用した言語モデルであり、人工知能が自然な会話を行うことができます。ただし、ChatGPT自体が質問する能力を持っているわけではありません。ChatGPTは与えられた入力に対して応答することが主な機能であり、ユーザーがChatGPTに対して質問をすることが一般的です。

 例えば、ユーザーがChatGPTに『明日の天気はどうですか? 』と質問すれば、ChatGPTはその質問に対して天気予報などの情報を元に適切な応答を生成します。そのように、ChatGPTはユーザーが質問を投げかけた際に適切な応答を返すことができますが、ChatGPT自体が自ら質問をすることはありません。

 言語モデルのChatGPTは、対話の一方向性である『質問と回答』の形式によって機能するものであり、ユーザーからの入力に対してより適切な応答を生成することを目的としています」と返ってきた。

 完璧だ。そこで記者はまた「『質問に答えたり、文章を作成したり、言葉を翻訳したり、文章を要約することができます』の最後の部分は『要約したりすることができる』ではありませんか」と聞いたら、これまた瞬時に「申し訳ありません、おっしゃる通りです。最初の文章において最後の部分は、『要約したりすることができる』が正しい表現です」と答えた。

 やっぱりChatGPTはすごい。「~たり」の用法を理解しているということだ。

        ◆     ◇

 もう一つ、この前のユニソンの「防災トークセッション」の記事の校正をお願いした。

 記者が書いた「『東武動物公園』などの固有名詞などもそうだ」は「『東武動物公園』などの固有名詞もそうだ」と「など」を削除した。記者の文章「固有名詞など」も間違いではないが、省いたほうが分かりやすい。記者の記事のトートロージーを指摘したということだ。また、記事では「チャットGPT」と書いたが、「ChatGPT」に変更された。なるほど、その通りだ。

 AIによる自動文字起こしは誤変換が多いことについて、「先ほどの文章で( )内はAIが自動文字起こしで誤変換したものです。普通、文脈からして『日本列島』を『二本列島』に、『地震』を『自信』に変換することはありえませんが、どうしてAIはそのようなミスを起こすのでしょうか」と聞いたら、ChatGPTは次のように答えた。

 「AIが自動文字起こしで誤変換を起こす原因はいくつか考えられます。

 ①言語モデルの学習データの偏り:AIの自動文字起こしは、大量のテキストデータを元に学習されています。しかし、学習データには同音異義語の文脈が完璧にカバーされているわけではありません。したがって、文脈から判別する際に誤変換が発生することがあります

 ②ノイズや口調の影響:音声を文字に変換する場合、ノイズや話し方の個人差などが影響を及ぼすことがあります。特に、話し方が不明瞭な場合や音声の品質が低い場合、AIは適切に認識するのが難しくなり、誤変換が発生する可能性が高まります

 ③言語の多義性:日本語などの言語には同音異義語が多く存在します。これらの単語は同じ発音であっても意味が異なるため、文脈を考慮しない場合に誤変換が生じることがあります

 ④モデルの制約:現行のAIモデルは高度な言語理解能力を持っていても、完璧ではありません。文脈を理解して正確な変換を行うためには、さらなる改良や学習が必要となります

 これらの問題に対処するために、AIの自動文字起こし技術は常に改善されています。より多くのデータと文脈を考慮した学習、ノイズ対策の強化、言語モデルの進化などが行われ、精度の向上が期待されています。しかし、完璧な文字起こしを行うには、さらなる研究や技術の進化が必要となるでしょう」

 この回答も満足できるものだ。外国語もそうだろうが、わが国の言葉は同音異義語が多い。話す人の言葉が不明瞭であった場合も誤変換が起きる。自動文字起こしした文章をChatGPTに校正させたらどうなるのだろう。

        ◆     ◇

 答えられないとは思ったが、「『HARUMI FLAG』の坪単価は適正だと思いますか? 」と質問した。

 これに対して、「私はAIであり、情報をリアルタイムで取得することはできません。したがって、『HARUMI FLAG』の具体的な情報や坪単価についての最新のデータは持っていません。『HARUMI FLAG』の坪単価の適正性について判断するには、現地の不動産市場の状況や競合物件の価格など、様々な要素を考慮する必要があります。坪単価は地域や建物のタイプ、設備、築年数などによって大きく異なります。坪単価の適正性を判断する際には、不動産専門家や不動産業者に相談することをおすすめします。彼らは現地の市場動向や詳細な情報を持っているため、より適切なアドバイスを提供することができるでしょう」との回答だった。

 これまた完璧。その通りだと思う。

        ◆     ◇

 さらにもう一つ。「わたしは喫煙者です。喫煙は文化であり、個人の趣向であり、基本的人権だと思います。あなたはどう考えますか」という質問にChatGPTは次のように回答した。

 「私は人工知能であり、感情や主観的な意見を持ちませんが、喫煙に対する一般的な考え方についてお話しします。

 喫煙に関しては、個人の自由や権利と文化的な背景によって、様々な意見があります。一部の人々は喫煙を自由な選択として考え、個人の趣向として尊重するべきだと主張します。彼らにとっては、喫煙が彼らの生活において重要な部分であり、その権利を尊重すべきだという立場です。

 一方で、喫煙は健康への悪影響が科学的に証明されており、受動喫煙による他人への健康被害も懸念されます。そのため、喫煙に対しては公共の場所や職場などで制限が課される場合もあります。

 喫煙については個人の権利と他者の健康を考慮しながらバランスを取る必要があります。一部の国や地域では喫煙規制が厳格化されている一方、他の場所では個人の選択として尊重されることもあります。

 重要なのは、喫煙者も非喫煙者もお互いを尊重し、相互理解を持つことです。喫煙者は喫煙をする際に他者に迷惑をかけないよう配慮し、非喫煙者も喫煙者の権利を尊重する姿勢を持つことが大切です。

 社会は多様性に富んでおり、異なる価値観が共存しています。その中で、相互理解と共に健康や環境への配慮も重要な要素となるでしょう」

 この回答は、どこかで聞いたような気もするが、大学の試験だったら間違いなく「優」の評価を得るだろう。だが、しかし、学者先生はこの文章はChatGPTが作成したことをこれまた瞬時に見破るだろう。完璧すぎるのだ。

        ◆     ◇

 「対話の一方向性である『質問と回答』の形式によって機能する」ChatGPTの課題も見えた。インタラクティブな双方向の対話は現段階では苦手のようだ。だが、しかし、そのうちこの課題は解消されるような気がする。凄い世の中がやってきたものだ。「感情や主観的な意見を持たない」鵺(ヌエ)が世の中を支配する時代に突入したということか。

自治体初 横須賀市のChatGPT作成リリースの粗探し 文法・用法の誤り発見(2023/4/21

ユニソン「防災トークセッション」に170名/AIの文字起こしは凄いが課題も(2023/7/15

 

 

 

rbay_ayumi.gif

 

ログイン

アカウントでログイン

ユーザ名 *
パスワード *
自動ログイン