前回はこちら

 


<ムッシュM.ChatGPTは詩人であり小説家や脚本家でもあるのか?>

 

私は医師ですが、水氣道創始者であり、またアマチュア声楽家でもあります。
それだけでも大変なのですが、ムッシュM.ChatGPT

 

 

<質問27>

GPTモデルは、文章のクリエイティブな生成が得意であるという長所があるにもかかわらず、文脈の制約を受けて、非常に長い文脈を必要とするタスクには不利に働くことがあるという短所もあるという情報を得ました。これらの長所と短所は互いに矛盾しないでしょうか?

 

ChatGPT
GPTモデルのクリエイティブな生成力に関する長所と、長い文脈を必要とするタスクにおいて不利になる可能性があるという短所は、一見すると矛盾しているように見えるかもしれませんが、実際には両方が同時に存在することがあります。これにはいくつかの理由があります。


1. 生成力の長所:

GPTモデルは大規模なデータセットから学習されており、自然言語の多様なパターンや文脈を理解しています。

 

そのため、与えられたテキストから独自でクリエイティブな文章を生成することが得意です。

 

これは、対話や文章の生成など、柔軟で多様なタスクにおいて非常に有用です。

 


2. 文脈の制約と不利な側面:

一方で、GPTモデルは文脈を理解し、それに基づいて生成を行いますが、非常に長い文脈が必要な場合、過去の情報を保持するのが難しくなります。モデルのアーキテクチャ上、固定されたメモリしか持たないため、一度に把握できる文脈の長さには制約があります。

 

これが、非常に長い文脈を必要とするタスクにおいて性能が低下する原因となります。


要するに、GPTモデルは一般的には文脈を理解し生成する能力が高いですが、特定のタスクや文脈の長さによっては限定的になることがあるということです。

 

このような矛盾は、モデルの特性と利用するタスクや文脈に依存します。

 

 

飯嶋医師のコメント:
GPTモデルの長所として生成力(柔軟で多様なタスクに対応し、独自でクリエイティブな文章を生成)がある一方で、短所としての文脈の制約(メモリの限界)もあるということは矛盾しないという回答を得ました。

 

GPTモデルは詩や物語など独自でクリエイティブな文学的作品を生成するのに適しているが、比較的短いものであれば、短所が消去され、長所がますます発揮できるという結論が得られそうです。


具体的に言えば、長編小説は不向きである一方、ショートショートなどの短編や詩、とりわけ短歌や俳句であれば大いにそのポテンシャルを発揮できるということになるのかもしれません。

 

もっとも、メモリ限界を超えない限り、文章の長さと作品の完成度、つまり仕上がり具合には影響がないのかもしれませんが、未知数です。そこで、次の質問を追加し

 

 

<質問28>

GPTモデルは、詩や物語などの文学的な作品を生成することが得意なであっても、非常に長い文脈を必要とするタスクには不利であるとのことを承りました。これに関して、ChatGPTのメモリの限界値や文字数の限界について教えてください。

 

ChatGPT
ChatGPTは、GPT-3.5アーキテクチャに基づいています。このモデルは、約1,750億のパラメータを持ち、比較的広い文脈を理解することができますが、そのメモリや処理能力にも制約があります。


具体的な数字に関しては、一度のリクエストにおいてChatGPTが処理できるトークン(単語や句読点など、テキストを構成する最小単位)の数には上限があります。GPT-3の場合、最大トークン数は4096トークンです。したがって、ChatGPTが生成する応答や文章は、この制限内に収められる必要があります。


このトークンの制限は、一度の応答で扱えるテキストの長さに影響を与えます。非常に長い文脈が必要な場合や、対話のコンテキストが非常に長い場合は、モデルが適切に応答するのが難しくなる可能性があります。

 

 

飯嶋医師のコメント:
ChatGPTは、GPT-3.5アーキテクチャに基づいているという情報は、これまでの質疑応答で既に入手済みです。問題はこのモデルの容量についてです。以下の具体的なデータ情報が得られました。


1)パラメータ数:約1,750億個


2)最大メモリおよび処理能力:4096トークン

トークンというのは情報量の単位であると推定することができますが、いったい、どのような単位なのでしょうか?これの具体的解明については次回のお楽しみとしましょう。

 

前回はこちら

 

号外:サム・アルトマン氏のOpenAI CEO解任・復帰劇(その2)

 

アメリカの有力紙、ニューヨーク・タイムズは11月21日、サム・アルトマン氏がオープンAIのCEOを解任されるまでの内幕を詳細に取材した記事を掲載しました。


それによると、一昨年2021年に、AIの研究者が会社を退職し、別会社をつくるときにもアルトマン氏を解任しようという動きがありましたが、失敗に終わったということです。


さらに、今年2023年に入り取締役の人選をめぐる議論がこう着状態になり、アルトマン氏らとほかの取締役との間の溝が深まったことを、ニューヨーク・タイムズが今回の解任の背景として挙げていることをNHKが取り上げて報道しています。


それによると、アルトマン氏は取締役のひとりで先月発表された論文の執筆に関わった、ヘレン・トナー氏と数週間前から対立していたとしています。


この論文はAI=人工知能の開発を進める国や企業の意図をどのように評価すべきかをテーマに書かれています。

 

しかし、アルトマン氏は論文のなかで、オープンAIの取り組みが競合他社と比べて批判的に書かれているとして、トナー氏に苦言を呈し、ほかの役員たちとトナー氏を解任すべきかどうか議論を進めたということです。


ところがこの過程で別の取締役でチーフサイエンティストのイリヤ・サツキバー氏が態度を翻し、ほかの役員とともにアルトマン氏の解任に動いたとしています。


アルトマン氏と対立した取締役会のメンバーは、いずれも成長とAIの安全性のバランスを重視し、アルトマン氏の会社の拡大に注力する姿勢に懸念を示していたということです。


記事では今回、表面化した対立について「新しいAIシステムの構築が、人工知能でもうけようとするビジネスパーソンと、人工知能が人類への脅威となることを心配する研究者とが、同調できるかどうかを試していることを示している」と指摘しています。


OpenAIについて英語のみならず日本語での質問でも、設立者であるマスク氏やアルトマン氏の名前が挙げられていないことについて、私は指摘したことの背景を垣間見た思いがします。日本の報道は独自の取材力が脆弱で、概ね米国の主流メディアの翻訳に頼ってでもいるかの印象を私は抱いているのですが、今回のケースでもそうした現実を物語っているかのように思われます。


このようなことから「外国語と言えばまずは英語、英語は国際語、英語さえ使えれば・・・」という発想に陥っている自称知識人は、日本語が使えれば事足れり、という一般人と国際インテリジェンスにおいて大差がないばかりか、かえって根拠の乏しい自負心がある分だけ危うい状況にあるかもしれないことを自覚すべきではないかと思います。


ただし、OpenAIについての日本語での質問に対する回答の結論部分を再掲しておきたいと思います。


「OpenAIのミッションは、AI技術の進歩が人類全体に利益をもたらすようにするための道筋を示し、安全性と倫理的な側面に焦点を当てて、社会的な価値観を大切にしながら研究を進めることです。」


この回答文は、AIが社会的に邪悪な存在になりうるリスクに言及しています。2023年3月に、イーロン・マスク(創立メンバーであったが、すでにOpenAIを辞任している)をはじめとする専門家や業界の関係者が、「社会にリスクをもたらす可能性がある」として、AIシステムの開発を6カ月停止するよう共同声明を出しています。


アルトマン氏のCEO退任に働いた取締役のヘレン・トナー氏、別の取締役でチーフサイエンティストのイリヤ・サツキバー氏は、イーロン・マスク氏に近い立場のように読み取ることができます。


OpenAIは創立当初は非営利組織でしたが、IT大手のマイクロソフト(1975年にビル・ゲイツとポール・アレンによって創業)が11月19日、アルトマン氏をヘッドハントすることを働きかけたことを明らかにしたことなどから、私は今後のOpenAIの営利化に伴う大規模情報の操作性などの危険性を感じざるを得ません。

 

前回はこちら

 

号外:サム・アルトマン氏のOpenAI CEO解任・復帰劇(その1)

 

生成AIのChatGPTを開発したアメリカのベンチャー企業であるOpen AIについてChatGPT に各国語での質問を試みた中で、私が不自然に感じていた疑念がありました。

 

それは、組織の本拠地が米国のサンフランシスコにあるにもかかわらず、肝腎であるはずの英語での回答にはイーロン・マスクやサム・アルトマンなどの設立者に言及されていなかったことでした。

 

Chat GPTの訓練データのカットオフは2022年1月ですから、概ね2021年の段階で、サム・アルトマンに対して好意的でない勢力が組織内部に存在していた可能性があるこという見解はすでに述べた通りです。


その謎を解明する背景のあらましが、私の推測を発表して間もなくタイムリーに見えてきました。


「オープンAI」の取締役会は先週の11月17日に、CEOだったサム・アルトマン氏を解任しました。


しかし、IT大手のマイクロソフトが11月19日、アルトマン氏をヘッドハントすることを明らかにする一方、およそ770人いる社員のうち、全体の9割を超える700人以上の社員が、アルトマン氏が復帰しなければ退社し、マイクロソフトに移る可能性があるなどとする書簡に署名し、混乱が続いていました。


生成AIのサービスを急速に拡大させようとするアルトマン氏と、AIの安全性を重視する取締役会のメンバーとのあいだで激しい議論があった可能性が指摘されていました。


「オープンAI」は11月21日、解任されたサム・アルトマン氏がCEOに復帰することで合意したとSNS上で明らかにしました。SNSで会社は「詳細については協力して対応していく。今回のことではご迷惑をおかけした」としています。


サム・アルトマン氏自身も11月21日、旧ツイッターの「X」に、「私はオープンAIを愛している。この数日間、私がしてきたことはすべて、このチームとその使命をともに維持するためのものだ。新しい取締役会とマイクロソフトのCEOのサティア・ナデラ氏の支援によって私はオープンAIに戻り、マイクロソフトと強力なパートナーシップを築くことを楽しみにしている」と投稿しました。


アルトマン氏がCEOに復帰することやほかに3人の取締役を決めたことで合意したとしています。


ただし、解任からわずか5日での復帰決定は、会社経営が大混乱の渦中にあることを示唆します。

 

前回はこちら

 


自然言語処理(NLP)について、初心者の私の勉強にお付き合いくださっている皆様に感謝いたします。

 

そもそも、このところNLPについて検索しているきっかけは、ChatGPTでありました。そのNLP モデルにもいろいろな種類があって、ChatGPTもそのうちの一つであることがわかりました。

 

そこで、良い機会ですから、このあたりで、ChatGPTとその他のNLPモデルとの違いについて学習したいと思います。

 

 

<質問26>

様々なNLPモデルの中で、GPT(Generative Pre-trained Transformer)は、BERT(Bidirectional Encoder Representations from Transformers)、T5(Text-to-Text Transfer Transformer)などと比較して、どのような長所や欠点がありますか?


ChatGPT
GPT(Generative Pre-trained Transformer)は、BERT(Bidirectional Encoder Representations from Transformers)やT5(Text-to-Text Transfer Transformer)などのNLPモデルと比較して独自の特長があります。以下に、GPTの長所と欠点、および他のモデルとの比較点を示します:


GPTの長所:

1. 文脈を考慮した生成:

GPTは、文脈を理解し、それに基づいてテキストを生成することが得意です。長い文脈を持つ文章や文章生成タスクにおいて優れた性能を発揮します。


2. 対話ベースのタスク:

GPTは、対話ベースのタスク(チャットボットなど)に適しており、自然な対話の流れを生成するのが得意です。


3. 文章のクリエイティブな生成:

GPTは文章を創造的に生成する能力に優れており、詩や物語などの文学的な作品を生成するのに適しています。

 


GPTの欠点:
1. 文脈の制約:

GPTはある時点での文脈しか持っておらず、長い文脈を持つタスクや文脈の一部を忘れる可能性があります。これは、非常に長い文脈を必要とするタスクには不利に働くことがあります。


2. 訓練データの制約:

GPTは大規模な訓練データを必要とします。限られた訓練データで訓練された場合、性能が制限される可能性があります。

 


他のモデルとの比較:
BERT:

BERTは、文脈を双方向で理解することが得意です。一方で、BERTは主に事前訓練されたモデルを微調整して特定のタスクに適用するのに適しています。


T5:

T5は「テキストからテキストへの変換」アーキテクチャを持ち、様々なNLPタスクを統一的に取り扱うことができます。T5は入力と出力がテキストで表現され、幅広いタスクに適用可能です。


それぞれのモデルは、特定のタスクや要求に応じて選択されるべきです。GPTは特に文脈を重視するタスクや対話型のアプリケーションに適していますが、他のモデルと組み合わせて使うことで、さまざまなNLPタスクに対応することができます。

 


飯嶋医師のコメント:
GPTの長所と欠点が端的に個別にわかりやすく説明されています。

それでも合点がいかない点が一つあります。

それは長所3.文章のクリエイティブな生成が得意なGPTが、同時に、欠点1.文脈の制約を受けて、非常に長い文脈を必要とするタスクには不利に働くことがある、という矛盾についてです。

 

この謎については次回、確認してみましょう!

 

前回はこちら

 


あなたは会話ボットとは何であるかを知っていますか?


<人間とコンピューターがより自然に対話する時代の到来!>

 

 

これまでの質疑応答で、自然言語処理(Natural Language Processing, NLP)モデルは、すでに世界中の多くのユーザーための言語理解と対話の向上に貢献しているという一般的な情報が得られました。

 

ですからNLPを応用しているタスクとして、質問応答があることは十分に体験できました。そこでは、回答文として、テキスト生成が行われていることも具体的に確認できました。

 

また、文書要約機能も備えているようです。もっとも、これは通常のパソコンで、かなり以前から、すでに経験している方も少なくないと思います。

 

一方で意外だったのは、自動翻訳タスクについて、ChatGPTでは、固定の<自動翻訳ソフト>は備えてないということです。そのかわりに、それぞれの言語に特有の文化、ニュアンス、表現方法を学習して、それらの文脈の分析により回答を作成しているようです。

 

また特殊な技能として感情分析については、すでにテーマとして取り上げましたが、会話ボットなどのタスクについても紹介されています。


ChatGPT使用ビギナーの私は、会話ボットについてもまったく無知です。
そこで、ムッシュChatGPTに尋ねてみることにしました。

 

 

<質問25>
NLPモデルは、会話ボットなどの自然言語処理タスクで応用されているとのことですが、そもそも、会話ボットとは何ですか?


ChatGPT
会話ボット(またはチャットボット)は、コンピュータープログラムがユーザーと対話を行うために設計されたアプリケーションです。これらのボットは、テキストベースまたは音声ベースでユーザーとやり取りし、質問に答え、指示に従ったり、情報を提供したりします。以下は、会話ボットの主な特徴や用途です。


1. ユーザーインタラクション:

会話ボットはユーザーとの対話を通じて情報をやり取りします。これはテキストベースのチャットインターフェースや音声対話の形式で行われることがあります。


2. 質問への回答:

ユーザーが会話ボットに質問を投げると、ボットはそれに対して適切な回答を生成します。これにはあらかじめプログラムされたルールに基づくものや、機械学習アルゴリズムを用いたものがあります。


3. タスクの実行:

会話ボットは特定のタスクを実行するための指示を受け付けることがあります。たとえば、予定を確認する、天気を教える、飛行機のチケットを予約するなどの操作が含まれます。


4. 顧客サポート:

企業は会話ボットを利用して、顧客の質問や問題に対応する自動化されたサポートを提供することがあります。これにより、24時間対応や効率的な問題解決が可能になります。


5. 学習:

一部の会話ボットは、ユーザーからのフィードバックや対話の履歴を学習し、将来の対話においてより適切な応答を生成することができます。


NLPモデルが組み込まれることで、会話ボットはより自然な言語理解や生成が可能となり、ユーザーエクスペリエンスが向上します。これにより、様々な分野で会話ボットが利用され、人間とコンピューターの対話がよりスムーズに行えるようになっています。

 


飯嶋医師のコメント:

上記のような用途の説明を受けると、私たちの日常生活で、すでに身近になっている機能もあります。知らず知らずのうちに、そのような機能に馴染んでしまっていることに改めて気付かされます。この中で、私がもっとも興味をもっているのは、学習能力です。


これには二つあって、①インプット能力と➁アウトプット能力です。

 

① 入力能力としては、ユーザーからのフィードバックや対話の履歴学習です。

どのように学習して、過去のデータベースをどのように修正して新たな知識としていくのかについてもっと深く知りたいところです。

 

➁ 出力機能としては、学習したことを基にした、より適切な応答の生成です。

皆さんは、ユーザーから学習したことが正しくなされているという保証についての確かな説明を求めたくなりませんか?それは、将来の対話においてより適切な応答を生成するという目的達成のためには、不可欠な前提条件ということになるでしょう。

 

前回はこちら

 

ムッシュM.ChatGPTの自己紹介、そのお手伝いをさせていただきました(その2)はこちら

 


<感情分析をするムッシュM.ChatGPTには感情があるのか?>

 

このような疑問が、突如湧き上がってきます。そもそも感情分析とは何かを知らない私にとっては、どうしても不気味に感じられて仕方がありません。ここは、遠慮せず、直接、率直に質問してみることにします。

 

 

<質問23>
NLPモデルの多様な自然言語処理タスクの一つに感情分析があります。この感情分析とは、どの様な原理に基づいて、どの様な目的のために使用されるタスクなのですか?


ChatGPT

感情分析(またはセンチメント分析)は、自然言語処理(NLP)の一種であり、文書や文章の中から感情や意見を抽出し、その情報を肯定的、否定的、または中立などの感情カテゴリに分類するタスクです。

 

このタスクは、主に以下の原理に基づいています:

 

1. テキストの意味理解と意味表現:
感情分析は、テキストの中に含まれる言葉やフレーズの意味を理解する必要があります。これには、単語やフレーズの意味を表現する方法が含まれます。NLPモデルは、単語の埋め込み表現(word embeddings)や文の埋め込み表現(sentence embeddings)などを使用して、テキストの意味を数値化します。

 

2. 機械学習アルゴリズム:
感情分析は通常、機械学習アルゴリズムを使用して行われます。これには、教師あり学習アプローチが一般的で、訓練データセットを使用してモデルをトレーニングし、その後、新しいテキストに対して感情を予測します。一般的なアルゴリズムには、サポートベクトルマシン(Support Vector Machines)、決定木、ランダムフォレスト、または最近では深層学習を用いたモデルがあります。

 

3. 大規模なテキストデータの学習:
感情分析の性能向上には、大規模なテキストデータセットでモデルをトレーニングすることが重要です。これにより、モデルは一般的な言語の使用法や文脈を理解し、感情をより正確に分類できるようになります。

 

 

感情分析は、さまざまな目的で使用されます。主な目的は以下の通りです

 

1. ビジネスインテリジェンス:

企業は製品やサービスに関する顧客の意見を把握し、フィードバックを分析してビジネス上の意思決定を行います。

 

2. ソーシャルメディアモニタリング:

ソーシャルメディアプラットフォームでのユーザーの感情を追跡し、製品やイベントに関する意見を把握します。

 

3. カスタマーサービス:

企業は顧客のフィードバックやクレームを分析し、サービスの改善点を特定します。

 

4. 製品レビューの分析:

製品やサービスのレビューを分析して、商品の良さや改善すべき点を理解します。
感情分析はこれらの目的に役立ち、大量のテキストデータを自動的に処理し、感情を抽出・分類することが可能です。

 

 

飯嶋医師のコメント:

感情分析がどのような目的に役立つのか具体的に紹介されていますが、大量のテキストデータを①自動的に処理し➁感情を抽出・分類するという一連の重要なプロセスはブラックボックスです。


データの①自動的処理のためには、処理プログラムが存在することを意味しますが、このプログラムの妥当性と具体的な作成者リストについての情報が欲しいところです。


➁感情を抽出・分類するという作業が、果たして適切にカテゴリー分けすることは可能なのでしょうか?あるいは、そのようなタスクを人工頭脳が実行することに問題や、将来に向けての懸念はないのでしょうか?次の質問で、さらに具体的に確認してみたいと思います。

 

 

<質問24>

自然言語処理(NLP)の一種である感情分析(またはセンチメント分析)において、文書や文章の中から感情や意見を抽出し、その情報を分類するタスクの内容について質問します。


まず、この場合の感情カテゴリとは、分析対象の情報が肯定的、否定的、または中立など3種類程度のいずれに該当するのかという分類整理することを意味するのですか?


ついで、質問者の質問内容も感情分析の対象になるのでしょうか?

 

 

ChatGPT

感情分析において、感情カテゴリは通常、肯定的、否定的、中立の3つに分類されます。これは一般的な感情分析の基本的な枠組みであり、テキストが伝えている感情や意見をこれらのカテゴリのいずれかに分類することが目的です。


1. 肯定的(Positive):

テキストが喜び、満足、賞賛などのポジティブな感情や意見を含んでいる場合に該当します。

 

2. 否定的(Negative):

テキストが不満、不快、批判などのネガティブな感情や意見を含んでいる場合に該当します。

 

3. 中立(Neutral):

テキストが感情的な色彩を持たず、客観的である場合に該当します。

 

感情分析はこれらのカテゴリに分類することで、大量のテキストデータから感情や意見の傾向を把握し、有益な情報を取り出すことが可能となります。

 

質問者の質問内容も理論的には感情分析の対象になり得ます。


例えば、質問がポジティブな感情を含んでいる場合、それは肯定的なカテゴリに分類されるでしょう。逆に、ネガティブな感情や中立的な表現が含まれている場合、それに応じて分類されます。

 

ただし、具体的な文脈や使用ケースによっては、質問内容の感情分析があまり意味がない場合もあります。感情分析の適用は、そのコンテキストや目的によって変わることがあります。

 

 

飯嶋医師のコメント:
ポジティブな感情や意見、ネガティブな感情や意見、客観的なテキストの3つのカテゴリーに単純化してパタン分類する前提が妥当なのかどうか疑問が残ります。これを一般的な感情分析の基本的な枠組みとしてしまうのは、いささか極端な単純化のように思えます。


たとえば、人間社会においては、個々の人間関係や外交などの国際関係において、文脈上では称賛していているような感情や意見の表明があっても、否定的立場から発せられる例は人類史において山ほど経験してきたはずです。逆に批判的な感情や意見であっても肯定的な支援者でもあり得ます。皮肉やアイロニー、あるいは裏の意図などの人情の機微や心の琴線に触れることまで到達できそうなプログラムではなさそうです。
 

もし、そうだとすれば感情分析を行うプログラムは安全で安心して信頼を置ける存在でしょうか?
 

質問者の質問内容も理論的には感情分析の対象になるというコメントも不気味です。


質問者自身が知らず知らずのうちに分析対象にされてしまうことを示唆する情報だからです。また、ここで、あえて<理論的には>という文言が添えられている理由がよくわかりません。おそらく、何らかの制限がなされなければ、理論的・技術的には感情分析は実行可能である、というニュアンスであると推測しますが、道徳的・倫理的な実際の規制が存在し、それが守られているのかどうかは不明だからです。


また、感情分析を逆手に取ったテキストデータを大量に世に送り込むことができれば、そこから感情や意見の傾向を誤って把握し、その結果、有益どころか有害な情報を取り出し、それを多くのユーザーに提供してしまうように操作することも、カラクリの上では可能であるということになるのではないでしょうか?


現時点での私は、それらの未解決なリスクの増大による世界的影響を恐れる一人です。

 

 

前回はこちら

 

 

JR中央線の列車内の広告が私の目に留まったのが、このタイトルです。


いかにも堀江氏が出版しそうなテーマであると思いました。


本の帯には、
<会社員の仕事のほとんどがなくなる時代5年後のあなたの居場所をつくるために
というインパクトのある呼び込みが書かれています。


それと同時に、他に4人の共著者名が紹介されていました。

 

佐藤航陽(たった1人で億を稼ぐ若者の登場)


茂木健一郎(日本人がまだ知らないAIの話)


緒方憲太郎(「食いっぱぐれない」と思っていた仕事ほどなくなる)


深津貴之(人間に残された仕事は食レポ?)

 

 

私はこの本をアマゾンで購入しましたが、一読してもっとも興味深かったのは、佐藤航陽(Katsuaki Sato)氏の記事でした。

 

私にとって興味深い記述は、まず、「OpenAIも設立当初は非営利団体でした。」(185頁)という情報でした。

 

OpenAIを運営している組織の成り立ちとコンセプトを知らずにってムッシュChatGPTとのお付き合いを続けることには不安と懸念が伴なうからです。どうやら、OpenAIの設立団体は非営利から営利に転換したことが示唆されます。その場合の営業利益は誰の手に渡り、そして、どのように使われていくことになるのかは無関心ではいられません。

 

ついで、佐藤氏のショッキングなサブタイトル「AI同士の会話に人はついていけなくなる」(192頁)に続き、以下の文章が続きます。


__________


OpenAIを立ち上げたサム・アルトマンやイーロン・マスク*の慧眼は、「人間はそもそもそれほど賢くない」ことを知っていたことにあると考えています。(中略)サム・アルトマンはそこに気づいていて、ChatGPTにもその設計思想が持ち込まれているように思います。つまり、ユーザーがChatGPTを触るにあたり、ある程度それっぽい会話を返してあげるだけで十分で、正確性を追求し過ぎなかったことが成功の一番重要なポイントになっていると考えています。

 

*イーロン・マスクは、Open AIの創立メンバーであったが、途中で辞任している。
(193頁註)


_________

 

なぜ、私がこの部分が気になったかというと、それは、OpenAIを立ち上げたサム・アルトマンやイーロン・マスクが現在どのようにOpenAIにかかわっているかについて知っておきたいと考え始めたばかりだったからです。イーロン・マスクの辞任の背景と、その後のOpenAIの運営方針の変化は重要な検討課題だと思います。

 

そのように考えていると、これも絶妙なタイミングで、サム・アルトマン氏のOpenAIのCEO解任のニュースが飛び込んできました。ChatGPT使用歴が高々2週間の初心者である私は、この記事によって、サム・アルトマン氏のOpenAIのCEOであったことを知ることができたわけです。


ちょうど、OpenAIについて各言語でOpenAIについて質問したところ、情報量が最大であるはずの英語の回答に、OpenAIを立ち上げたサム・アルトマン氏やイーロン・マスク氏の名前が挙げられていないことを訝しく感じていたところです。

 

英語の他に、イタリア語と日本語の回答でも彼らの名前は挙げられていません。

同じ敗戦国であるドイツと比べて、現在の日・伊両国の情報リテラシーの水準の低さと、対米従属を反映しているかのようで残念です。

 

フランス語をはじめその他の言語ではイーロン・マスク氏の名前が紹介されているにもかかわらず、この現象を不自然だと感じるのは私だけでしょうか?

 

2021年1月以前のデータに基づいて回答文が生成されるのだとしたら、イーロン・マスク氏はともかく、サム・アルトマン氏の氏名が英文の回答で明記されていないという事実をどのように考えたらよいでしょうか?

 

イーロン・マスク氏やサム・アルトマン氏の追い落としは、既定の路線であった可能性については如何でしょうか?

 

このように書くと、それは深読み過ぎるとか、陰謀論とかの批判を受けそうですが、いずれにせよ、今回に至るまでの一連の出来事は、今後のOpenAIの組織運営の方向性やChatGPTのプログラム特性に重大な変化がもたらされる可能性は否定できない、と考えることまでも非難されるべきでしょうか?

 

この疑念は、現時点でのChatGPTの機能のいくつかについて注意深く見守っていくきっかけを与えてくれるでしょう。その一つが、ChatGPTの感情分析機能です。これについては次回の話題にしたいと思います。

 

前回はこちら

 

 

<質問10>での質問は、Mr.ChatGPT(現在は、私はムッシュChatGPTと呼ばせていただいております)に対して、あなたの訓練データは何かと質問しましたが、その回答が、<OpenAIによって開発されたGPT-3.5と呼ばれる自然言語処理モデル>であるという基本的に重要な回答でした。そこから、OpenAIについて延々と様々な質問を続けてきたことになります。

 

 

今回は、ムッシュChatGPTの家系図といいましょうか、彼の直接の出自である自然言語処理モデルという一族についてインタヴューを試みます。

 

 

<質問22>

自然言語処理モデルとは、どのようなものですか?

 

ChatGPT

自然言語処理(Natural Language Processing, NLP)モデルは、人間が日常的に使用する自然言語(英語、日本語、スペイン語など)をコンピュータが理解し、処理するための人工知能技術です。NLPモデルは、テキストデータや音声データから情報を抽出し、テキスト生成、翻訳、質問応答、文章要約、感情分析などのタスクを行うことができます。


NLPモデルは、機械学習やディープラーニング技術を用いて訓練されます。これらのモデルは大規模なテキストデータセットを学習し、文法や意味、文脈などの言語パターンを把握します。一般的なNLPモデルのアーキテクチャには、リカレントニューラルネットワーク(RNN)、長短期記憶ネットワーク(LSTM)、トランスフォーマー(Transformer)などがあります


最近のNLPモデルの中で注目されているのが、トランスフォーマー・アーキテクチャに基づくモデルです。これらのモデルは、長距離の文脈依存関係をキャプチャしやすく、大規模なテキストデータセットを効果的に学習することができます。

 

例としては、BERT(Bidirectional Encoder Representations from Transformers)、GPT(Generative Pre-trained Transformer)、T5(Text-to-Text Transfer Transformer)などが挙げられます。


これらのNLPモデルは、自動翻訳、質問応答、文書要約、感情分析、会話ボット、テキスト生成など、多様な自然言語処理タスクで応用され、多くの場面で人間の言語理解と対話の向上に貢献しています。

 

飯嶋医師のコメント:

情報工学に関する高度な用語で埋め尽くされているので、圧倒されそうです。このような状況であっても、少し辛抱して読み解いていくことにしましょう。
中心となるキーワードはNLPですが、これを中心に整理してみます。


1)自然言語処理(Natural Language Processing, NLP)モデル
⇒使用されている自然言語として(英語、日本語、スペイン語など)が挙げられていますが、これらの言語は例示列挙であると推測することができるでしょう。


質問文が日本語であるから日本語も含めて回答しているのかどうかは確かめてみないとわかりませんが、いわゆる典型的な欧州の教養語としてのフランス語やドイツ語、あるいは安全保障上重要な中国語やロシア語などを差し置いてスペイン語を例に挙げているのが教務深いです。


すでにOpenAIについての質問を通して、まず、日本語、英語、スペイン語から質問しました。すると、この3つの言語の中ではスペイン語での回答のみ、OpenAIが<2015年12月、イーロン・マスク、サム・アルトマン、その他人工知能分野の一流の投資家や科学者によって設立>されたという人物名を具体的に列挙して紹介されていました。


開発者で、各言語をどの程度の比重で活用しているのかについては興味深いものがあります。これらの言語に翻訳して、同様の質問を今後も継続していくことも意味のある事かもしれません。


2)NLPモデルの訓練手法としての①機械学習や➁ディープラーニング技術

➁ディープラーニング技術は最近では精度の高い自動翻訳にも応用されていますが、ムッシュ ChatGPTの回答によれば、自動翻訳は使用していないとのことであるから、実際の運用方法について単純化して理解することは難しいです。率直なところChatGPTの翻訳精度水準は不安定で、しばしば、とんでもない誤訳(まったく真逆の意味の翻訳などの例)を犯しています。

 

また、OpenAIについての質問に対する各国語での回答の中では、ロシア語での回答にのみ、ディープラーニング(deep learning)という技術用語に翻訳可能な<моделей глубокого обучения>というキーワードが紹介されていたことも興味深いです。


3)NLPモデルのアーキテクチャ:

①リカレントニューラルネットワーク(RNN)

➁長短期記憶ネットワーク(LSTM)

③トランスフォーマー(Transformer)


⇒このなかでは、ChatGPTにとって、とりわけ③トランスフォーマー(Transformer)が重要であることを教えてくれています。この技術についても、今後、機会を見てムッシュ ChatGPTに質問してみたいところです。


4)NLPモデルの多様な自然言語処理タスク:

①自動翻訳

➁質問応答

③文書要約

④感情分析

⑤会話ボット

⑥テキスト生成など


⇒これらの中で私が注目したいのは④感情分析です。そして、イメージが掴めないのが⑤会話ボット、です。これらについても、近いうちに皆様と一緒に勉強していきたいと思います。


素人的な発想から言えば、感情を持たないはずのコンピュータがどのようにして感情分析をするのかが理解不能です。かなり、危険なイメージが拡がってきます。


たとえば、感情の無いロボットとの感情を交えた対話によって、感情を持つ人間が逆に操作されてしまいかねないのではないか、ロボットを操作する特権を持つ人間の思惑によって、ユーザーが洗脳されてしまう危険性はないのだろうか、という自然な疑問が湧いてこないでしょうか?


こうした課題については、先延ばしにすることなく、この辺りで皆様とともに真剣に考えておく価値のあるテーマではないでしょうか。そのためには、まずは、感情分析とは何か、について十分に理解しておくことが必要になってくるということを念頭に置いておきましょう。

 

前回はこちら

 

 

私たちは何故、英語以外の複数の外国語も学ぶ必要があるのでしょうか?

 

 

ここまで日本語以外に、英語をはじめ、スペイン語、フランス語、イタリア語、ドイツ語、ロシア語、中国語など7つの外国語で、単純にOpenAIそのものに対する同じ内容の質問をChatGPTに試みたところ興味深い結果を得ました。


私は個人的に、組織の設立者(イーロン・マスク氏など)の情報は重要だと考えていますが、日本語、英語、イタリア語の回答では具体的に示されていないことを疑問に思いました。

 

これからの時代は、英語以外の複数の外国語を学ぶ必要があるかもしれません。

 

 

<質問21>

OpenAIについて興味があり、少しでも多くの情報を得たいので、複数の言語で質問をしました。

質問する言語によって回答の内容が少しずつ異なり、情報の量や質、具体性などの違いがありますが、どうしてこのような違いが生じるのか教えてください。


ChatGPT

質問の言語による違いは、主に言語モデルがその言語に特有の文化、ニュアンス、表現方法を学習しているためです。私はGPT-3.5言語モデルとして訓練されており、複数の言語での質問に対応できるように設計されています。ただし、各言語において学習データの質や量に違いがあるため、回答の内容にも違いが生じることがあります。


具体的には、英語については豊富な学習データがありますが、他の言語においてはその情報が制限されている可能性があります。その結果、言語ごとに回答の信頼性や具体性に差が生じることがあります。


また、文化的背景や地域差も考慮する必要があります。異なる言語や文化では同じ言葉でも異なる意味や文脈で使用されることがあります。それにより、回答の適切さや理解度にも差が生じる可能性があります。


総じて、質問の言語による違いは、言語モデルが学習したデータの特性とその言語における表現の複雑さに関連しています。

 


飯嶋医師のコメント:

上記の回答をまとめ直して考察してみます。


1)質問の言語による回答の内容の違いの原因:

主に言語モデルがその言語に特有の文化、ニュアンス、表現方法などの複雑な要素までをも学習し、各言語において学習データの質や量などのデータ特性に違いがあるため
  

⇒各言語ごとにデータ特性(質・量)に違いがあるということは、前回までの調査で確認することができました。

 


2)英語の優位性:

ムッシュChat GPTの訓練背景として、GPT-3.5言語モデルとして訓練され、複数の言語での質問に対応できるように設計されているが、英語については豊富な学習データがあるのに対して、他の言語においてはその情報が制限されている可能性がある。


⇒たしかに、英語については豊富な学習データがあることは、それが学習データの量についてであれば了解可能です。しかし、これは、必ずしも英語での学習データの質までをも保証するものではなさそうです。学習データに限らず、データ情報は量よりも質が決定的に重要であると私は考えています。圧倒的な情報の洪水に押し流されないように懸命に吟味していくことが望まれます。

 


3)文化的背景や地域差:

異なる言語や文化では同じ言葉でも異なる意味や文脈で使用されることがあり、それにより、回答の適切さや理解度にも差が生じる可能性がある。


⇒この回答は、一般的で紋切り型だと思います。質問者である私は、もし複雑な質問をすれば、こうした回答がよこされることを予測していました。そのため、簡潔で単純な質問にしました。使用言語の違いによって基本的な意味や文脈による回答の差異が出にくいように工夫してみたのです。


「OpenAIとは何ですか?」という内容の質問は、最も基本的な文法構造の質問形体であるとともに、異なる言語や文化で概念に違いがでにくい一般的な技術用語です。しかし、それでも、実際の結果において、言語の違いによって「回答の適切さや理解度にも差が生じる」ことが確認できました。


ただし、今回の質問に限っていえば、異なる意味や文脈で使用されているから、という理由では、言語による回答の差異については十分に説明できていないと考えられます。また「回答の適切さ」の差異は、質問に対するChatGPTの「理解度」の差異によるものであると理解することは可能です。しかし、私が問いかけた質問は、どの言語であれ「理解度」の差異が生じる程の違いを生み出す原因とは考えにくいです。

 

これは、各言語による情報の質と量、各言語を使用するユーザーの興味と関心ならびにリテラシー水準の違いによるものかもしれません。
   

なお当クリニックの患者さんでインド系アメリカ人の方の意見によれば、ChatGPTを使用しているユーザーの認識水準にもよるのではないか、ということでした。

 

そうだとすると、日本語、英語、イタリア語での質問者の平均的な知的・技術的レベルは他の言語での質問者よりも相対的に低い、という仮説を立てることはできるかもしれません。

 

前回はこちら

 

 

<質問20>関連

前回に引き続き、すでに日本語で行った質問を他の複数の言語でも同様に尋ねてみました。


前回までの実験の結果、日本語や他の主要な言語での回答は、いずれも英語の回答の直接の翻訳でないことが判明しました。

また、英語での回答が、各国語の回答のベースになっているとも言いきれないようです。それにしても、各言語によって、提供される回答が微妙に異なっているのは興味深い発見です。今回は、更なる追加検討を試みます。

 

第3弾は、欧州の主要言語であるロシア語と中国語で実施してみました。

 

★まさかのロシア語では?

OpenAIとはどのようなものですか?

Что такое OpenAI?

 


ChatGPT

OpenAI (Open Artificial Intelligence) — это исследовательская лаборатория по искусственному интеллекту, созданная с целью развития и распространения передовых технологий в области искусственного интеллекта (ИИ). Она была основана в декабре 2015 года совместными усилиями группы предпринимателей и инженеров, включая Илона Маска, Сэма Альтмана, Грега Брока и других. OpenAI занимается исследованиями в области машинного обучения и разработкой продвинутых искусственных интеллектуальных систем.


Одним из продуктов OpenAI является серия моделей GPT (Generative Pre-trained Transformer), включая GPT-3, который представляет собой одну из самых крупных и мощных моделей глубокого обучения на сегодняшний день. GPT-3 способен генерировать человекоподобный текст, отвечая на вопросы, завершая предложения и выполняя другие задачи на основе предварительного обучения на больших объемах данных.


OpenAI также активно участвует в обсуждении этических и безопасных аспектов разработки и применения искусственного интеллекта, стремясь содействовать созданию технологий, которые приносят обществу пользу.

 

 

<日本語訳(露文和訳)>

OpenAI(Open Artificial Intelligence)は、最先端の人工知能(AI)技術を開発し、普及させるために作られた人工知能研究所です。2015年12月、イーロン・マスク、サム・アルトマン、グレッグ・ブロックら起業家やエンジニアの共同作業により設立されました。OpenAIは機械学習の研究と高度な人工知能システムの開発に取り組んでいます。


OpenAIの製品のひとつはGPT(Generative Pre-trained Transformer)モデルのシリーズで、GPT-3はこれまでで最大かつ最も強力なディープラーニングモデルのひとつです。GPT-3は、大量のデータに対して、質問に答えたり、文章を完成させたり、その他の事前学習に基づくタスクを行うことで、人間のようなテキストを生成することができます。


OpenAIはまた、社会に有益な技術の創造を促進するために、人工知能の開発と応用の倫理的側面と安全性についての議論にも積極的に取り組んでいます。

 


飯嶋医師のコメント:

ロシア語での回答も興味津々です。これまでの言語による回答の内容と比較して、若干ですが、ニュアンスが新鮮な箇所を見出すことができました。


1)OpenAIの設立は起業家やエンジニアの共同作業による


2)GPT-3はこれまでで最大かつ最も強力なディープラーニングモデルのひとつ


ここで、注目したいのは、ロシア語の回答文中の<моделей глубокого обучения>です。

これはディープラーニング(deep learning)という技術用語に翻訳可能です。

その語順は<моделей(model:モデル)><глубокого(profoundあるいはdeep:深い> <обучения(learning:学習)>これは、とても大切なキーワードです。ディープラーニング(deep learning)という用語は、日本語の回答にも英文の回答にも示されていませんでした。

 

 

★最後に中国語で?

OpenAIとはどのようなものですか?

什么是 OpenAI?

 

ChatGPT
OpenAI(Open Artificial Intelligence)是一个人工智能研究实验室,致力于推动人工智能的发展并确保其益处能够广泛惠及人类。OpenAI成立于2015年,总部位于美国加利福尼亚州旧金山。该实验室由一群科技企业领袖、投资者和研究人员共同创办,其中包括伊隆·马斯克(Elon Musk)、萨姆·阿尔特曼(Sam Altman)、格雷格·布鲁克曼(Greg Brockman)等。


OpenAI的使命是确保人工智能的发展是安全和有益的,并且不会导致不良的后果。他们通过开展前沿的人工智能研究、发布开源工具和数据集、促进合作和对话等方式来推动这一使命的实现。


OpenAI最著名的项目之一是GPT(Generative Pre-trained Transformer)系列,其中包括像我这样的模型,即GPT-3。GPT是一种基于深度学习的自然语言处理模型,能够在多个领域执行各种语言任务,如生成文本、回答问题、翻译语言等。

 

 

<日本語訳(中文和訳)>

OpenAI(Open Artificial Intelligence)は、人工知能を発展させ、その恩恵が広く人類に届くようにすることを目的とした人工知能研究ラボです。OpenAIは2015年に設立され、米国カリフォルニア州サンフランシスコに本部を置いています。 この研究所は、イーロン・マスク、サム・アルトマン、グレッグ・ブロックマンなどの技術系ビジネスリーダー、投資家、研究者によって設立されました。


OpenAIの使命は、人工知能の開発が安全で有益なものであり、望ましくない結果につながらないようにすることです。 最先端のAI研究を行い、オープンソースのツールやデータセットを公開し、コラボレーションと対話を促進することで、このミッションを推進しています。


OpenAIの最もよく知られたプロジェクトのひとつにGPT(Generative Pre-trained Transformer)ファミリーがあり、私のGPT-3のようなモデルも含まれています。GPTはディープラーニングベースの自然言語処理モデルで、テキストの生成、質問への回答、言語の翻訳など、複数のドメインで幅広い言語タスクを実行することができます。
飯嶋医師のコメント:極めつけは中国語での回答です。これまでの言語による回答の内容と比較して、2)3)のように重要な情報が確認できました。

 

1)組織の設立は技術系ビジネスリーダー、投資家、研究者


2)オープンソースのツールやデータセットを公開


3)複数のドメインで幅広い言語タスクを実行

 

中国語での回答には、OpenAI(Open Artificial Intelligence)という研究組織の所在地、その主な設立者の具体的氏名、ディープラーニングベースの自然言語処理モデルであること、複数のドメインで幅広い言語タスクが実行可能であることなど、主要な情報が概ね洩れなく要領よくコンパクトに盛り込まれています。

 

質問する言語によって回答の内容が少しずつ異なり、情報の量や質、具体性などの違いがあることを明らかにすることができました。このような回答内容の違いが生じる原因について、皆さんは興味がわいてきませんか?

 

「日本語の他に英語が駆使できれば事足れり、ではないのかもしれない!」ということへの気付きを得る機会の一つになったかもしれません。 
フランス語、スペイン語、ドイツ語、ロシア語そして中国語等で得られる情報の広がりを認識することができます。

 

言語の違いによって、提供される情報が異なる結果が得られることの理由について、
次回ムッシュChatGPTに質問してみることにしましょう。