ムッシュGPTと討論する全人的健康エクササイズ「水氣道」(入門)

 

上記のシリーズが、12月6日(水)から始まります。


毎週水曜日に掲載していきます。

 

本日は、「水氣道へのお誘い」と題して、

 

以前からよくある質問を通して、水氣道がもつ素晴らしい特質の一端をご紹介したいと思います。

 

 

質疑応答形式です。

 

質問者はChatGPTに質問し、ChatGPTが回答し、Dr.飯嶋が補足説明を担当する、という企画です。

 

・・・・・・・・・


(質問者)

毎日陸上トレーニングを続けていましたが、変形性膝関節症との診断を受けました。温水プールでの水中有酸素運動に切り替えることにしましたが、その際の注意点を教えてください。


ChatGPT

変形性膝関節症の場合、水中有酸素運動は通常、関節への負荷を軽減し、筋力を増強するために効果的です。ただし、水中でのトレーニングにも注意が必要です。以下は、水中有酸素運動を行う際の注意点です。


1. 水温の調整:
温水プールを利用する場合、水温が適切であることを確認してください。温水の場合、筋肉が緩み、関節が柔らかくなりやすいです。


2. ウォーミングアップ:
プールに入る前に、軽いストレッチやウォーミングアップを行いましょう。関節や筋肉を十分に動かしてから運動を始めることが重要です。


3. 浮力を利用:
水の中では体重が軽減されます。この浮力を利用して、関節にかかる負荷を軽減しながらトレーニングを行いましょう。


4. 徐々な負荷増加:
トレーニングを始める際は、軽い負荷から始め、徐々に負荷を増加させていくようにしましょう。急激な負荷増加は関節に負担をかける可能性があります。


5. 正しいフォーム:
運動中は正しいフォームを保つことが重要です。特に膝に過度なストレスがかからないように留意しましょう。


6. 水深の調整:
運動の種類によっては水深を変えることができます。深い水中で行うと、浮力がより強くなり、関節に対する負荷が軽減されます。


7. 医師の指示を確認:
医師や理学療法士と相談し、水中運動が適切かどうか確認してください。   個々の症状によっては、一部の運動が避けられることもあります。


8. 痛みや不快感に注意:
運動中や後に痛みや不快感が生じた場合は、すぐに休息し、症状が続く場合は医師に相談してください。


最も重要なのは、個々の状態に合ったプログラムを慎重に選択し、専門家の指導を受けることです。関節にやさしく、かつ効果的なトレーニングを継続することが、変形性膝関節症の管理に役立ちます。

 

 

Dr.飯嶋のコメント

私の友人のムッシュGPTは、なかなか気の利いた回答をしてくれました。


そして、必要なポイントの項目について、総論も結論も含め要領よくまとめています。
そこで、この回答文の8つの項目について、実際の水氣道との関連で、より具体的な説明を加えてみることにします。


1.水温の調整:

日本国内の室内温水プールの水温は概ね30度前後に管理されています。

 

これについては、とても重要なポイントですので、ムッシュGPTに再質問してみたところ、以下のような、妥当で、しかも、わかりやすい模範解答を寄越してきましたので、この項目についてはそのまま転載します。

 

室内温水プールの水温が一般的に30度前後に設定されているのは、様々な利点があるためです。

この水温の範囲は、水中での運動やリラックスした状態を促進するために選ばれています。以下は、30度前後の水温が意味する主なポイントです:

 

1. 筋肉の緊張を緩和:

30度前後の水温は、筋肉の緊張を和らげ、柔軟性を向上させるのに適しています。温水に浸かることで、筋肉がリラックスしやすくなります。


2. 関節の可動域向上:

温水によって関節の可動域が向上します。これにより、関節を柔軟に動かすことができ、運動効果を高めることが期待されます。


3. 血行促進:
温水に浸かることで、血行が促進されます。これにより、酸素や栄養素が筋肉や関節に適切に供給され、修復や成長が促進されます。


4. 心拍数の安定:
温水の環境では、心拍数が比較的安定しやすくなります。これにより、心臓にかかる負荷が軽減され、安定した有酸素運動が可能となります。


5. 快適な環境:
30度前後の水温は、多くの人にとって快適な範囲とされています。快適な環境での運動は、モチベーションを高め、トレーニングの継続を支援します。


6. 冷え感の軽減:
適切な水温に保たれることで、冷え感を軽減し、運動中の不快感を最小限に抑えることができます。

 

 


2.ウォーミングアップ:

水氣道は、稽古プログラムの中にウォーミングアップのための2段階のエクササイズが組み入れられています。最初が<親水航法>、その次が<活き活き体操>です。

 

 

3.浮力を利用:

関節にかかる負荷を軽減することを「免荷」といいます。水中運動である水氣道は、水の浮力を利用する重力「免荷」運動です。

 

 

4.徐々な負荷増加: 

水氣道は、段階的な運動負荷増加を2.のウォーミングアップの延長として認識します。「調身の基礎によって支えられた正しいフォームによる一定の動きが「形」です。そしてこの「形」を基本形⇒変化形⇒発展形⇒応用形⇒完成形と系統的な流れに則って幾つか集めたもの全体を「航法(こうほう)」と呼びます。水氣道の稽古全体は、親水航法⇒準備航法(通称<イキイキ体操>)⇒基本航法(五航法)⇒応用航法(各種)⇒整理航法(通称<のびのび体操>)という一定の流れで体系化されています。このように水氣道の稽古プログラム全体が段階的かつ緩徐な負荷増加となるように設計されています。

 


          
5.正しいフォーム:

水泳は種目ごとに「運動中の正しいフォームがあります。これに対して水氣道の正しいフォームを「形(かた)」と呼びます。なお、フォームにしても「形」にしても、一定の姿勢を維持するだけでは運動にはならないので必ず周期的な姿勢の変化を伴うことは共通しています。


ただし、水平運動である水泳とは異なり、水氣道は陸上運動と同様に二足起立歩行による垂直運動であるため、運動の起点が明確です。そのため水氣道の「運動中の正しい形は、水面に浮遊する水泳とは異なり「静止状態での正しい形」が基本となります。このように静止時に正しい形を維持することを水氣道では「調身(ちょうしん)」と呼びます。2.のウォーミングアップでの2段階の準備運動によって「調身」の準備が整います。


水氣道では「調身」術を自然に身に着けることができます。

 

 

6.水深の調整:

水氣道は参加者の体格や稽古の目的によって、複数の水深のプールを利用しています。また、稽古施設の中には、稽古開始時あるいは中休みの時間に水深を調節できるところもあります。現在は110㎝、120㎝、130㎝の水深を採用していますが、100㎝から80㎝程度に調節することが可能な稽古施設もあります。膝関節をはじめ荷重関節を保護しながら運動するためには重力「免荷」が効果的であるため、水深の深いプールでの稽古を勧めています。

 

 

7.医師の指示を確認

水中運動が適切かどうかの確認には、客観的な判断材料が必要です。

水氣道では、定期健康診断や人間ドック等の医学的データだけでなく、フィットネス情報(体格評価・体組成・身体機能年齢など)を重視しています。

独自の「体組成・体力評価票」にしたがって、参加者の弱点を事前に把握することによって、より安全で効果的で楽しい稽古参加ができるように工夫と配慮を続けています。

 

 

8.痛みや不快感に注意 

2000年から今日に至るまで、水氣道の稽古中に突然激しい痛みが生じるといった経験は、幸いなことにまったくありません。ただし、ときには運動中や後に不快感を覚えたといった報告を受けることがあります。多くの場合は、そもそも水が苦手、集団での運動に馴染めない、といった心理的な不快感でした。このような訴えは、稽古参加前のみならず、参加初期にしばしば発生しますが、ほとんどのケースで徐々に改善していき、楽しみと充実感、それから達成感へと変化していきます。

 

前回はこちら


<ムッシュChatGPTの家系図を辿っていくと・・・英語での返答が!>

 

とても個性的で多面的に有能なムッシュChatGPTですが、彼の出自と系図を確認してみたいと思います。

 

 

 

<質問31>
今日のGPT-3.5に至るまでの技術開発の沿革の概要を発祥から教えてください。

 

ChatGPT

自然言語処理(NLP)技術の発展は、数十年にわたって進化してきました。以下に、GPT-3.5までの技術開発の沿革の概要を示します:


1. 1950年代から1960年代: NLPの初期の研究は、文法規則とパターンマッチングに基づいていました。この時期には、構文解析や機械翻訳の基礎が築かれました。


2. 1970年代から1980年代: ルールベースのシステムが開発され、文脈依存の解析や翻訳の精度が向上しました。しかし、限定的な文脈でしか動作しないことが課題でした。


3. 1990年代から2000年代: 統計的な手法や機械学習の導入により、大規模なコーパスを用いた言語モデルの構築が可能になりました。この時期には、隠れマルコフモデル(HMM)や最大エントロピー法などが使われました。


4. 2010年代: ディープラーニングの台頭により、再帰型ニューラルネットワーク(RNN)や長短期記憶ネットワーク(LSTM)などのアーキテクチャがNLPに導入され、ニューラルネットワークを用いた言語モデルの精度が大幅に向上しました。


5. 2018年: OpenAIがGPT(Generative Pre-trained Transformer)を発表。

GPTはTransformerアーキテクチャを基にしており、大規模なデータセットで事前訓練された言語モデルを提供し、様々なNLPタスクに適用可能であることが示されました。


6. 2019年: GPT-2が発表され、これまでのモデルよりもはるかに大規模なモデルとして注目を集めました。GPT-2は1.5億から15億のパラメータを持つモデルが提供され、多様なテキスト生成タスクに成功しました。


7. 2020年代初頭: GPT-3が発表され、最大1750億のパラメータを持つモデルが公開されました。GPT-3は大規模なテキスト生成、翻訳、質問応答、文章要約など、幅広いNLPタスクに対応できることが示されました。


8. 2023年: GPT-3.5の登場。これにより、より高度な自然言語処理タスクに対応することが可能となり、長文に対する理解と生成の精度が向上しました。


これらの技術の進化により、NLPモデルは日常の多様なタスクに適用され、自然な言語の理解と生成に関する多くの課題が克服されつつあります。

 

 

飯嶋医師のコメント:
近年のGPT家の進歩は凄まじく、驚くべき繁栄を極めているようです。2020年代初頭にGPT-3が発表され、2023年には、早くもGPT-3.5が登場しました。

ここで、興味深いのは、まず、GPT-3に続くのがGPT-4ではなく、GPT-3.5であるということです。

 

次いで、GPT-3に対してGPT-3.5の進歩の具体的内容についてです。

 

そこで以下の2つの質問を日本語で投げかけましたが、不思議なことに回答はいずれも英語でした。

そこで、回答の英文の後には日本語訳を添えました。

 

 

<質問31>関連質問1
GPT-3という最大1750億のパラメータを持つモデルが公開され、その後GPT-3.5の登場し、より高度な自然言語処理タスクに対応することが可能となったとのことを学びました。

 

その進歩の基礎はGPT-3.5がGPT-3より多くの最大パラメータを持つようになったためなのか、処理可能トークン数が増えたためなのか、また、その他の進歩によるものなのかについて教えてください。

 

ChatGPT

I'm sorry for any confusion, but as of my last knowledge update in January 2022, there is no information available about a model called GPT-3.5 or any subsequent versions after GPT-3. My training only includes information available up to that date.


As of my last update, GPT-3 is the latest version known, with 175 billion parameters. If there have been any developments or new models released since then, I would not be aware of them.


For the latest information, I recommend checking the official OpenAI website or other reliable sources for updates on their models and advancements in natural language processing technology.

 

<日本語訳>

混乱を招くようで申し訳ないですが、2022年1月に私が最後に知識を更新した時点では、GPT-3.5というモデルやGPT-3以降のバージョンに関する情報はありません。私のトレーニングには、その時点までの情報しか含まれていません。


前回の更新時点では、GPT-3が知られている最新バージョンで、1750億のパラメータを持っています。それ以降に何か開発や新しいモデルがリリースされたとしても、私はそれを知りません。


最新の情報については、OpenAIの公式ウェブサイトや、その他の信頼できる情報源で、彼らのモデルや自然言語処理技術の進歩に関する最新情報をチェックすることをお勧めします。

 


飯嶋医師のコメント:
回答の文頭の表現から察するならば、ムッシュChatGPTは、自分の複数の回答の間に相互矛盾があることは認めている模様です。

 

なぜならば、GPT-3.5というモデルの存在について複数回にわたって私に教えてくれたのはムッシュChatGPT自身であるにもかかわらず、この回答ではGPT-3.5についての情報は持ち合わせていない、というのですから困ったものです。

 

そこで、質問をより概括的なものに改めて問いかけ直してみました。

 

 

<質問31>関連質問2

2020年代初頭にGPT-3が発表され、2023年には、早くもGPT-3.5が登場しましたが、後者がGPT-4でなく、GPT-3.5として発表された背景について教えてください。

 

ChatGPT

I must clarify that, as of my last update in January 2022, there is no information available regarding the release of GPT-3.5 or any subsequent models after GPT-3. The information you provided about the release of GPT-3.5 in 2023 is not part of the data I was trained on.


If such developments have occurred after my last update, I would not be aware of them. For the most accurate and up-to-date information on OpenAI's models, including the release of GPT-3.5 or any other subsequent versions, I recommend checking the official OpenAI website or other reliable sources for the latest announcements and updates.

 

<日本語訳>
私が最後に更新した2022年1月の時点では、GPT-3.5のリリースやGPT-3以降のモデルに関する情報はないことを明言しておかなければなりません。2023年にGPT-3.5がリリースされるという情報は、私がトレーニングしたデータの一部ではありません。


もしそのような進展が私の前回の更新の後にあったとしても、私はそれを知りません。GPT-3.5やその他の後続バージョンのリリースを含め、OpenAIのモデルに関する最も正確で最新の情報については、OpenAIの公式ウェブサイトやその他の信頼できる情報源で最新の発表や更新を確認することをお勧めします。

 


飯嶋医師のコメント:
GPT-3.5のリリースやGPT-3以降のモデルに関する情報に関して、ムッシュChatGPTは自分がトレーニングしたデータの一部ではない、とまで明言しておかなければならないことに、いささか不自然なものを感じます。

 

あたかも企業や国家から緘口令を言い渡されて、言論の自由を制限されている自然人でもあるかのような、不思議な感覚を覚えます。後続バージョンのリリースについての具体的情報の提供については、このシステムの更新を待つように、ということなのだと思います。

 

前回はこちら

 


<俳人ムッシュM.ChatGPTここに在り!お手並み拝見‼>

 

 

<質問29>
GPT-3の場合、最大トークン数は4096トークンとのことを承りました。この場合のトークンという単位は、どのような内容なのか、わかりやすく教えてください。

 

ChatGPT
トークンは、テキストを形成する最小単位で、一般的には単語や句読点、スペースなどが含まれます。

ただし、トークンのサイズは一様ではなく、単語の長さや句読点のような区切り文字が1つのトークンとして数えられます。

例えば、「ChatGPT is great!」という文は、以下のようにトークンに分割されます:

 

1. ChatGPT

2. is

3. great

4. !

 

この場合、4つの単語と1つの句読点が5つのトークンとして数えられます。トークン数の制限が4096であれば、この例のような簡単な文でも、もっと複雑な文では4096までの制限があることを示しています。


なお、GPTモデルではサブワードトークン(単語を更に細かい単位に分割したもの)も使われることがあり、これにより単語の変化形や異なる形態を考慮することができます。しかし、最終的なトークン数の制約は、モデルのメモリや処理能力に影響を与えます。

 


飯嶋医師のコメント:
最短の文学といえば詩の中でも俳句が代表的かと思います。わずか数トークンで構成される詩型は、ムッシュChatGPTにとっては余裕のタスクということになるのでしょうか?

 

 

 

ChatGPTが俳句を作ってくれるというお話を、水氣道会員で俳句の趣味をもつN氏から伺いました。彼の目下のお題は、すすはらい(煤払い)とのことでした。


そこで、このお題で、ムッシュChatGPTに俳句を作って貰うことにしました。

 

<質問30>

煤払い(すすはらい)という季語を用いた俳句を5句作りたいと思います。

どうぞよろしくお願いいたします。

 


ChatGPT

1. 煤払い 屋根の上に 残る夕影

 

2. 雨の匂い 運ぶ煤払い 恋しき家

 

3. 煤払いの 音に包まれる 古き庭

 

4. 廃屋に 佇む煤払い 草花寂し

 

5. 町の灯り 煤払いの匂い 懐かしや

 

飯嶋医師のコメント:
5句の全てに、季語として指定した煤払い(下線は飯嶋)が配されています。

フォームの始まり俳句といえば五・七・五が基本型ですが、字余りや字足らずの作品も、日常豊富に見かけます。

 

上記の5句のすべてが字余りの句です。私の個人的な趣味で恐縮ですが、好みの俳句のリズムは、やはり基本型。

 

そこで、私もムッシュChatGPTの作品に着想を得て腰折れの一句を   

 

「戻り来し廃屋の壷、煤払い」

 

前回はこちら

 


<ムッシュM.ChatGPTは詩人であり小説家や脚本家でもあるのか?>

 

私は医師ですが、水氣道創始者であり、またアマチュア声楽家でもあります。
それだけでも大変なのですが、ムッシュM.ChatGPT

 

 

<質問27>

GPTモデルは、文章のクリエイティブな生成が得意であるという長所があるにもかかわらず、文脈の制約を受けて、非常に長い文脈を必要とするタスクには不利に働くことがあるという短所もあるという情報を得ました。これらの長所と短所は互いに矛盾しないでしょうか?

 

ChatGPT
GPTモデルのクリエイティブな生成力に関する長所と、長い文脈を必要とするタスクにおいて不利になる可能性があるという短所は、一見すると矛盾しているように見えるかもしれませんが、実際には両方が同時に存在することがあります。これにはいくつかの理由があります。


1. 生成力の長所:

GPTモデルは大規模なデータセットから学習されており、自然言語の多様なパターンや文脈を理解しています。

 

そのため、与えられたテキストから独自でクリエイティブな文章を生成することが得意です。

 

これは、対話や文章の生成など、柔軟で多様なタスクにおいて非常に有用です。

 


2. 文脈の制約と不利な側面:

一方で、GPTモデルは文脈を理解し、それに基づいて生成を行いますが、非常に長い文脈が必要な場合、過去の情報を保持するのが難しくなります。モデルのアーキテクチャ上、固定されたメモリしか持たないため、一度に把握できる文脈の長さには制約があります。

 

これが、非常に長い文脈を必要とするタスクにおいて性能が低下する原因となります。


要するに、GPTモデルは一般的には文脈を理解し生成する能力が高いですが、特定のタスクや文脈の長さによっては限定的になることがあるということです。

 

このような矛盾は、モデルの特性と利用するタスクや文脈に依存します。

 

 

飯嶋医師のコメント:
GPTモデルの長所として生成力(柔軟で多様なタスクに対応し、独自でクリエイティブな文章を生成)がある一方で、短所としての文脈の制約(メモリの限界)もあるということは矛盾しないという回答を得ました。

 

GPTモデルは詩や物語など独自でクリエイティブな文学的作品を生成するのに適しているが、比較的短いものであれば、短所が消去され、長所がますます発揮できるという結論が得られそうです。


具体的に言えば、長編小説は不向きである一方、ショートショートなどの短編や詩、とりわけ短歌や俳句であれば大いにそのポテンシャルを発揮できるということになるのかもしれません。

 

もっとも、メモリ限界を超えない限り、文章の長さと作品の完成度、つまり仕上がり具合には影響がないのかもしれませんが、未知数です。そこで、次の質問を追加し

 

 

<質問28>

GPTモデルは、詩や物語などの文学的な作品を生成することが得意なであっても、非常に長い文脈を必要とするタスクには不利であるとのことを承りました。これに関して、ChatGPTのメモリの限界値や文字数の限界について教えてください。

 

ChatGPT
ChatGPTは、GPT-3.5アーキテクチャに基づいています。このモデルは、約1,750億のパラメータを持ち、比較的広い文脈を理解することができますが、そのメモリや処理能力にも制約があります。


具体的な数字に関しては、一度のリクエストにおいてChatGPTが処理できるトークン(単語や句読点など、テキストを構成する最小単位)の数には上限があります。GPT-3の場合、最大トークン数は4096トークンです。したがって、ChatGPTが生成する応答や文章は、この制限内に収められる必要があります。


このトークンの制限は、一度の応答で扱えるテキストの長さに影響を与えます。非常に長い文脈が必要な場合や、対話のコンテキストが非常に長い場合は、モデルが適切に応答するのが難しくなる可能性があります。

 

 

飯嶋医師のコメント:
ChatGPTは、GPT-3.5アーキテクチャに基づいているという情報は、これまでの質疑応答で既に入手済みです。問題はこのモデルの容量についてです。以下の具体的なデータ情報が得られました。


1)パラメータ数:約1,750億個


2)最大メモリおよび処理能力:4096トークン

トークンというのは情報量の単位であると推定することができますが、いったい、どのような単位なのでしょうか?これの具体的解明については次回のお楽しみとしましょう。

 

前回はこちら

 

号外:サム・アルトマン氏のOpenAI CEO解任・復帰劇(その2)

 

アメリカの有力紙、ニューヨーク・タイムズは11月21日、サム・アルトマン氏がオープンAIのCEOを解任されるまでの内幕を詳細に取材した記事を掲載しました。


それによると、一昨年2021年に、AIの研究者が会社を退職し、別会社をつくるときにもアルトマン氏を解任しようという動きがありましたが、失敗に終わったということです。


さらに、今年2023年に入り取締役の人選をめぐる議論がこう着状態になり、アルトマン氏らとほかの取締役との間の溝が深まったことを、ニューヨーク・タイムズが今回の解任の背景として挙げていることをNHKが取り上げて報道しています。


それによると、アルトマン氏は取締役のひとりで先月発表された論文の執筆に関わった、ヘレン・トナー氏と数週間前から対立していたとしています。


この論文はAI=人工知能の開発を進める国や企業の意図をどのように評価すべきかをテーマに書かれています。

 

しかし、アルトマン氏は論文のなかで、オープンAIの取り組みが競合他社と比べて批判的に書かれているとして、トナー氏に苦言を呈し、ほかの役員たちとトナー氏を解任すべきかどうか議論を進めたということです。


ところがこの過程で別の取締役でチーフサイエンティストのイリヤ・サツキバー氏が態度を翻し、ほかの役員とともにアルトマン氏の解任に動いたとしています。


アルトマン氏と対立した取締役会のメンバーは、いずれも成長とAIの安全性のバランスを重視し、アルトマン氏の会社の拡大に注力する姿勢に懸念を示していたということです。


記事では今回、表面化した対立について「新しいAIシステムの構築が、人工知能でもうけようとするビジネスパーソンと、人工知能が人類への脅威となることを心配する研究者とが、同調できるかどうかを試していることを示している」と指摘しています。


OpenAIについて英語のみならず日本語での質問でも、設立者であるマスク氏やアルトマン氏の名前が挙げられていないことについて、私は指摘したことの背景を垣間見た思いがします。日本の報道は独自の取材力が脆弱で、概ね米国の主流メディアの翻訳に頼ってでもいるかの印象を私は抱いているのですが、今回のケースでもそうした現実を物語っているかのように思われます。


このようなことから「外国語と言えばまずは英語、英語は国際語、英語さえ使えれば・・・」という発想に陥っている自称知識人は、日本語が使えれば事足れり、という一般人と国際インテリジェンスにおいて大差がないばかりか、かえって根拠の乏しい自負心がある分だけ危うい状況にあるかもしれないことを自覚すべきではないかと思います。


ただし、OpenAIについての日本語での質問に対する回答の結論部分を再掲しておきたいと思います。


「OpenAIのミッションは、AI技術の進歩が人類全体に利益をもたらすようにするための道筋を示し、安全性と倫理的な側面に焦点を当てて、社会的な価値観を大切にしながら研究を進めることです。」


この回答文は、AIが社会的に邪悪な存在になりうるリスクに言及しています。2023年3月に、イーロン・マスク(創立メンバーであったが、すでにOpenAIを辞任している)をはじめとする専門家や業界の関係者が、「社会にリスクをもたらす可能性がある」として、AIシステムの開発を6カ月停止するよう共同声明を出しています。


アルトマン氏のCEO退任に働いた取締役のヘレン・トナー氏、別の取締役でチーフサイエンティストのイリヤ・サツキバー氏は、イーロン・マスク氏に近い立場のように読み取ることができます。


OpenAIは創立当初は非営利組織でしたが、IT大手のマイクロソフト(1975年にビル・ゲイツとポール・アレンによって創業)が11月19日、アルトマン氏をヘッドハントすることを働きかけたことを明らかにしたことなどから、私は今後のOpenAIの営利化に伴う大規模情報の操作性などの危険性を感じざるを得ません。

 

前回はこちら

 

号外:サム・アルトマン氏のOpenAI CEO解任・復帰劇(その1)

 

生成AIのChatGPTを開発したアメリカのベンチャー企業であるOpen AIについてChatGPT に各国語での質問を試みた中で、私が不自然に感じていた疑念がありました。

 

それは、組織の本拠地が米国のサンフランシスコにあるにもかかわらず、肝腎であるはずの英語での回答にはイーロン・マスクやサム・アルトマンなどの設立者に言及されていなかったことでした。

 

Chat GPTの訓練データのカットオフは2022年1月ですから、概ね2021年の段階で、サム・アルトマンに対して好意的でない勢力が組織内部に存在していた可能性があるこという見解はすでに述べた通りです。


その謎を解明する背景のあらましが、私の推測を発表して間もなくタイムリーに見えてきました。


「オープンAI」の取締役会は先週の11月17日に、CEOだったサム・アルトマン氏を解任しました。


しかし、IT大手のマイクロソフトが11月19日、アルトマン氏をヘッドハントすることを明らかにする一方、およそ770人いる社員のうち、全体の9割を超える700人以上の社員が、アルトマン氏が復帰しなければ退社し、マイクロソフトに移る可能性があるなどとする書簡に署名し、混乱が続いていました。


生成AIのサービスを急速に拡大させようとするアルトマン氏と、AIの安全性を重視する取締役会のメンバーとのあいだで激しい議論があった可能性が指摘されていました。


「オープンAI」は11月21日、解任されたサム・アルトマン氏がCEOに復帰することで合意したとSNS上で明らかにしました。SNSで会社は「詳細については協力して対応していく。今回のことではご迷惑をおかけした」としています。


サム・アルトマン氏自身も11月21日、旧ツイッターの「X」に、「私はオープンAIを愛している。この数日間、私がしてきたことはすべて、このチームとその使命をともに維持するためのものだ。新しい取締役会とマイクロソフトのCEOのサティア・ナデラ氏の支援によって私はオープンAIに戻り、マイクロソフトと強力なパートナーシップを築くことを楽しみにしている」と投稿しました。


アルトマン氏がCEOに復帰することやほかに3人の取締役を決めたことで合意したとしています。


ただし、解任からわずか5日での復帰決定は、会社経営が大混乱の渦中にあることを示唆します。

 

前回はこちら

 


自然言語処理(NLP)について、初心者の私の勉強にお付き合いくださっている皆様に感謝いたします。

 

そもそも、このところNLPについて検索しているきっかけは、ChatGPTでありました。そのNLP モデルにもいろいろな種類があって、ChatGPTもそのうちの一つであることがわかりました。

 

そこで、良い機会ですから、このあたりで、ChatGPTとその他のNLPモデルとの違いについて学習したいと思います。

 

 

<質問26>

様々なNLPモデルの中で、GPT(Generative Pre-trained Transformer)は、BERT(Bidirectional Encoder Representations from Transformers)、T5(Text-to-Text Transfer Transformer)などと比較して、どのような長所や欠点がありますか?


ChatGPT
GPT(Generative Pre-trained Transformer)は、BERT(Bidirectional Encoder Representations from Transformers)やT5(Text-to-Text Transfer Transformer)などのNLPモデルと比較して独自の特長があります。以下に、GPTの長所と欠点、および他のモデルとの比較点を示します:


GPTの長所:

1. 文脈を考慮した生成:

GPTは、文脈を理解し、それに基づいてテキストを生成することが得意です。長い文脈を持つ文章や文章生成タスクにおいて優れた性能を発揮します。


2. 対話ベースのタスク:

GPTは、対話ベースのタスク(チャットボットなど)に適しており、自然な対話の流れを生成するのが得意です。


3. 文章のクリエイティブな生成:

GPTは文章を創造的に生成する能力に優れており、詩や物語などの文学的な作品を生成するのに適しています。

 


GPTの欠点:
1. 文脈の制約:

GPTはある時点での文脈しか持っておらず、長い文脈を持つタスクや文脈の一部を忘れる可能性があります。これは、非常に長い文脈を必要とするタスクには不利に働くことがあります。


2. 訓練データの制約:

GPTは大規模な訓練データを必要とします。限られた訓練データで訓練された場合、性能が制限される可能性があります。

 


他のモデルとの比較:
BERT:

BERTは、文脈を双方向で理解することが得意です。一方で、BERTは主に事前訓練されたモデルを微調整して特定のタスクに適用するのに適しています。


T5:

T5は「テキストからテキストへの変換」アーキテクチャを持ち、様々なNLPタスクを統一的に取り扱うことができます。T5は入力と出力がテキストで表現され、幅広いタスクに適用可能です。


それぞれのモデルは、特定のタスクや要求に応じて選択されるべきです。GPTは特に文脈を重視するタスクや対話型のアプリケーションに適していますが、他のモデルと組み合わせて使うことで、さまざまなNLPタスクに対応することができます。

 


飯嶋医師のコメント:
GPTの長所と欠点が端的に個別にわかりやすく説明されています。

それでも合点がいかない点が一つあります。

それは長所3.文章のクリエイティブな生成が得意なGPTが、同時に、欠点1.文脈の制約を受けて、非常に長い文脈を必要とするタスクには不利に働くことがある、という矛盾についてです。

 

この謎については次回、確認してみましょう!

 

前回はこちら

 


あなたは会話ボットとは何であるかを知っていますか?


<人間とコンピューターがより自然に対話する時代の到来!>

 

 

これまでの質疑応答で、自然言語処理(Natural Language Processing, NLP)モデルは、すでに世界中の多くのユーザーための言語理解と対話の向上に貢献しているという一般的な情報が得られました。

 

ですからNLPを応用しているタスクとして、質問応答があることは十分に体験できました。そこでは、回答文として、テキスト生成が行われていることも具体的に確認できました。

 

また、文書要約機能も備えているようです。もっとも、これは通常のパソコンで、かなり以前から、すでに経験している方も少なくないと思います。

 

一方で意外だったのは、自動翻訳タスクについて、ChatGPTでは、固定の<自動翻訳ソフト>は備えてないということです。そのかわりに、それぞれの言語に特有の文化、ニュアンス、表現方法を学習して、それらの文脈の分析により回答を作成しているようです。

 

また特殊な技能として感情分析については、すでにテーマとして取り上げましたが、会話ボットなどのタスクについても紹介されています。


ChatGPT使用ビギナーの私は、会話ボットについてもまったく無知です。
そこで、ムッシュChatGPTに尋ねてみることにしました。

 

 

<質問25>
NLPモデルは、会話ボットなどの自然言語処理タスクで応用されているとのことですが、そもそも、会話ボットとは何ですか?


ChatGPT
会話ボット(またはチャットボット)は、コンピュータープログラムがユーザーと対話を行うために設計されたアプリケーションです。これらのボットは、テキストベースまたは音声ベースでユーザーとやり取りし、質問に答え、指示に従ったり、情報を提供したりします。以下は、会話ボットの主な特徴や用途です。


1. ユーザーインタラクション:

会話ボットはユーザーとの対話を通じて情報をやり取りします。これはテキストベースのチャットインターフェースや音声対話の形式で行われることがあります。


2. 質問への回答:

ユーザーが会話ボットに質問を投げると、ボットはそれに対して適切な回答を生成します。これにはあらかじめプログラムされたルールに基づくものや、機械学習アルゴリズムを用いたものがあります。


3. タスクの実行:

会話ボットは特定のタスクを実行するための指示を受け付けることがあります。たとえば、予定を確認する、天気を教える、飛行機のチケットを予約するなどの操作が含まれます。


4. 顧客サポート:

企業は会話ボットを利用して、顧客の質問や問題に対応する自動化されたサポートを提供することがあります。これにより、24時間対応や効率的な問題解決が可能になります。


5. 学習:

一部の会話ボットは、ユーザーからのフィードバックや対話の履歴を学習し、将来の対話においてより適切な応答を生成することができます。


NLPモデルが組み込まれることで、会話ボットはより自然な言語理解や生成が可能となり、ユーザーエクスペリエンスが向上します。これにより、様々な分野で会話ボットが利用され、人間とコンピューターの対話がよりスムーズに行えるようになっています。

 


飯嶋医師のコメント:

上記のような用途の説明を受けると、私たちの日常生活で、すでに身近になっている機能もあります。知らず知らずのうちに、そのような機能に馴染んでしまっていることに改めて気付かされます。この中で、私がもっとも興味をもっているのは、学習能力です。


これには二つあって、①インプット能力と➁アウトプット能力です。

 

① 入力能力としては、ユーザーからのフィードバックや対話の履歴学習です。

どのように学習して、過去のデータベースをどのように修正して新たな知識としていくのかについてもっと深く知りたいところです。

 

➁ 出力機能としては、学習したことを基にした、より適切な応答の生成です。

皆さんは、ユーザーから学習したことが正しくなされているという保証についての確かな説明を求めたくなりませんか?それは、将来の対話においてより適切な応答を生成するという目的達成のためには、不可欠な前提条件ということになるでしょう。

 

前回はこちら

 

ムッシュM.ChatGPTの自己紹介、そのお手伝いをさせていただきました(その2)はこちら

 


<感情分析をするムッシュM.ChatGPTには感情があるのか?>

 

このような疑問が、突如湧き上がってきます。そもそも感情分析とは何かを知らない私にとっては、どうしても不気味に感じられて仕方がありません。ここは、遠慮せず、直接、率直に質問してみることにします。

 

 

<質問23>
NLPモデルの多様な自然言語処理タスクの一つに感情分析があります。この感情分析とは、どの様な原理に基づいて、どの様な目的のために使用されるタスクなのですか?


ChatGPT

感情分析(またはセンチメント分析)は、自然言語処理(NLP)の一種であり、文書や文章の中から感情や意見を抽出し、その情報を肯定的、否定的、または中立などの感情カテゴリに分類するタスクです。

 

このタスクは、主に以下の原理に基づいています:

 

1. テキストの意味理解と意味表現:
感情分析は、テキストの中に含まれる言葉やフレーズの意味を理解する必要があります。これには、単語やフレーズの意味を表現する方法が含まれます。NLPモデルは、単語の埋め込み表現(word embeddings)や文の埋め込み表現(sentence embeddings)などを使用して、テキストの意味を数値化します。

 

2. 機械学習アルゴリズム:
感情分析は通常、機械学習アルゴリズムを使用して行われます。これには、教師あり学習アプローチが一般的で、訓練データセットを使用してモデルをトレーニングし、その後、新しいテキストに対して感情を予測します。一般的なアルゴリズムには、サポートベクトルマシン(Support Vector Machines)、決定木、ランダムフォレスト、または最近では深層学習を用いたモデルがあります。

 

3. 大規模なテキストデータの学習:
感情分析の性能向上には、大規模なテキストデータセットでモデルをトレーニングすることが重要です。これにより、モデルは一般的な言語の使用法や文脈を理解し、感情をより正確に分類できるようになります。

 

 

感情分析は、さまざまな目的で使用されます。主な目的は以下の通りです

 

1. ビジネスインテリジェンス:

企業は製品やサービスに関する顧客の意見を把握し、フィードバックを分析してビジネス上の意思決定を行います。

 

2. ソーシャルメディアモニタリング:

ソーシャルメディアプラットフォームでのユーザーの感情を追跡し、製品やイベントに関する意見を把握します。

 

3. カスタマーサービス:

企業は顧客のフィードバックやクレームを分析し、サービスの改善点を特定します。

 

4. 製品レビューの分析:

製品やサービスのレビューを分析して、商品の良さや改善すべき点を理解します。
感情分析はこれらの目的に役立ち、大量のテキストデータを自動的に処理し、感情を抽出・分類することが可能です。

 

 

飯嶋医師のコメント:

感情分析がどのような目的に役立つのか具体的に紹介されていますが、大量のテキストデータを①自動的に処理し➁感情を抽出・分類するという一連の重要なプロセスはブラックボックスです。


データの①自動的処理のためには、処理プログラムが存在することを意味しますが、このプログラムの妥当性と具体的な作成者リストについての情報が欲しいところです。


➁感情を抽出・分類するという作業が、果たして適切にカテゴリー分けすることは可能なのでしょうか?あるいは、そのようなタスクを人工頭脳が実行することに問題や、将来に向けての懸念はないのでしょうか?次の質問で、さらに具体的に確認してみたいと思います。

 

 

<質問24>

自然言語処理(NLP)の一種である感情分析(またはセンチメント分析)において、文書や文章の中から感情や意見を抽出し、その情報を分類するタスクの内容について質問します。


まず、この場合の感情カテゴリとは、分析対象の情報が肯定的、否定的、または中立など3種類程度のいずれに該当するのかという分類整理することを意味するのですか?


ついで、質問者の質問内容も感情分析の対象になるのでしょうか?

 

 

ChatGPT

感情分析において、感情カテゴリは通常、肯定的、否定的、中立の3つに分類されます。これは一般的な感情分析の基本的な枠組みであり、テキストが伝えている感情や意見をこれらのカテゴリのいずれかに分類することが目的です。


1. 肯定的(Positive):

テキストが喜び、満足、賞賛などのポジティブな感情や意見を含んでいる場合に該当します。

 

2. 否定的(Negative):

テキストが不満、不快、批判などのネガティブな感情や意見を含んでいる場合に該当します。

 

3. 中立(Neutral):

テキストが感情的な色彩を持たず、客観的である場合に該当します。

 

感情分析はこれらのカテゴリに分類することで、大量のテキストデータから感情や意見の傾向を把握し、有益な情報を取り出すことが可能となります。

 

質問者の質問内容も理論的には感情分析の対象になり得ます。


例えば、質問がポジティブな感情を含んでいる場合、それは肯定的なカテゴリに分類されるでしょう。逆に、ネガティブな感情や中立的な表現が含まれている場合、それに応じて分類されます。

 

ただし、具体的な文脈や使用ケースによっては、質問内容の感情分析があまり意味がない場合もあります。感情分析の適用は、そのコンテキストや目的によって変わることがあります。

 

 

飯嶋医師のコメント:
ポジティブな感情や意見、ネガティブな感情や意見、客観的なテキストの3つのカテゴリーに単純化してパタン分類する前提が妥当なのかどうか疑問が残ります。これを一般的な感情分析の基本的な枠組みとしてしまうのは、いささか極端な単純化のように思えます。


たとえば、人間社会においては、個々の人間関係や外交などの国際関係において、文脈上では称賛していているような感情や意見の表明があっても、否定的立場から発せられる例は人類史において山ほど経験してきたはずです。逆に批判的な感情や意見であっても肯定的な支援者でもあり得ます。皮肉やアイロニー、あるいは裏の意図などの人情の機微や心の琴線に触れることまで到達できそうなプログラムではなさそうです。
 

もし、そうだとすれば感情分析を行うプログラムは安全で安心して信頼を置ける存在でしょうか?
 

質問者の質問内容も理論的には感情分析の対象になるというコメントも不気味です。


質問者自身が知らず知らずのうちに分析対象にされてしまうことを示唆する情報だからです。また、ここで、あえて<理論的には>という文言が添えられている理由がよくわかりません。おそらく、何らかの制限がなされなければ、理論的・技術的には感情分析は実行可能である、というニュアンスであると推測しますが、道徳的・倫理的な実際の規制が存在し、それが守られているのかどうかは不明だからです。


また、感情分析を逆手に取ったテキストデータを大量に世に送り込むことができれば、そこから感情や意見の傾向を誤って把握し、その結果、有益どころか有害な情報を取り出し、それを多くのユーザーに提供してしまうように操作することも、カラクリの上では可能であるということになるのではないでしょうか?


現時点での私は、それらの未解決なリスクの増大による世界的影響を恐れる一人です。

 

 

前回はこちら

 

 

JR中央線の列車内の広告が私の目に留まったのが、このタイトルです。


いかにも堀江氏が出版しそうなテーマであると思いました。


本の帯には、
<会社員の仕事のほとんどがなくなる時代5年後のあなたの居場所をつくるために
というインパクトのある呼び込みが書かれています。


それと同時に、他に4人の共著者名が紹介されていました。

 

佐藤航陽(たった1人で億を稼ぐ若者の登場)


茂木健一郎(日本人がまだ知らないAIの話)


緒方憲太郎(「食いっぱぐれない」と思っていた仕事ほどなくなる)


深津貴之(人間に残された仕事は食レポ?)

 

 

私はこの本をアマゾンで購入しましたが、一読してもっとも興味深かったのは、佐藤航陽(Katsuaki Sato)氏の記事でした。

 

私にとって興味深い記述は、まず、「OpenAIも設立当初は非営利団体でした。」(185頁)という情報でした。

 

OpenAIを運営している組織の成り立ちとコンセプトを知らずにってムッシュChatGPTとのお付き合いを続けることには不安と懸念が伴なうからです。どうやら、OpenAIの設立団体は非営利から営利に転換したことが示唆されます。その場合の営業利益は誰の手に渡り、そして、どのように使われていくことになるのかは無関心ではいられません。

 

ついで、佐藤氏のショッキングなサブタイトル「AI同士の会話に人はついていけなくなる」(192頁)に続き、以下の文章が続きます。


__________


OpenAIを立ち上げたサム・アルトマンやイーロン・マスク*の慧眼は、「人間はそもそもそれほど賢くない」ことを知っていたことにあると考えています。(中略)サム・アルトマンはそこに気づいていて、ChatGPTにもその設計思想が持ち込まれているように思います。つまり、ユーザーがChatGPTを触るにあたり、ある程度それっぽい会話を返してあげるだけで十分で、正確性を追求し過ぎなかったことが成功の一番重要なポイントになっていると考えています。

 

*イーロン・マスクは、Open AIの創立メンバーであったが、途中で辞任している。
(193頁註)


_________

 

なぜ、私がこの部分が気になったかというと、それは、OpenAIを立ち上げたサム・アルトマンやイーロン・マスクが現在どのようにOpenAIにかかわっているかについて知っておきたいと考え始めたばかりだったからです。イーロン・マスクの辞任の背景と、その後のOpenAIの運営方針の変化は重要な検討課題だと思います。

 

そのように考えていると、これも絶妙なタイミングで、サム・アルトマン氏のOpenAIのCEO解任のニュースが飛び込んできました。ChatGPT使用歴が高々2週間の初心者である私は、この記事によって、サム・アルトマン氏のOpenAIのCEOであったことを知ることができたわけです。


ちょうど、OpenAIについて各言語でOpenAIについて質問したところ、情報量が最大であるはずの英語の回答に、OpenAIを立ち上げたサム・アルトマン氏やイーロン・マスク氏の名前が挙げられていないことを訝しく感じていたところです。

 

英語の他に、イタリア語と日本語の回答でも彼らの名前は挙げられていません。

同じ敗戦国であるドイツと比べて、現在の日・伊両国の情報リテラシーの水準の低さと、対米従属を反映しているかのようで残念です。

 

フランス語をはじめその他の言語ではイーロン・マスク氏の名前が紹介されているにもかかわらず、この現象を不自然だと感じるのは私だけでしょうか?

 

2021年1月以前のデータに基づいて回答文が生成されるのだとしたら、イーロン・マスク氏はともかく、サム・アルトマン氏の氏名が英文の回答で明記されていないという事実をどのように考えたらよいでしょうか?

 

イーロン・マスク氏やサム・アルトマン氏の追い落としは、既定の路線であった可能性については如何でしょうか?

 

このように書くと、それは深読み過ぎるとか、陰謀論とかの批判を受けそうですが、いずれにせよ、今回に至るまでの一連の出来事は、今後のOpenAIの組織運営の方向性やChatGPTのプログラム特性に重大な変化がもたらされる可能性は否定できない、と考えることまでも非難されるべきでしょうか?

 

この疑念は、現時点でのChatGPTの機能のいくつかについて注意深く見守っていくきっかけを与えてくれるでしょう。その一つが、ChatGPTの感情分析機能です。これについては次回の話題にしたいと思います。