皆様、「水氣道」の解説シリーズを企画しました。

 

ChatGPT歴約1か月のDr.飯嶋とパートナーであるChatGPTとの対話が繰り広げられていきます。

 

ただし、ChatGPTが「水氣道」創始者であるDr.飯嶋に質問したり、インタヴューしたり、という形式ではありません。

とても奇妙に思われるかもしれませんが、その逆の役割を担います。ここではChatGPTの愛称を「ムッシュGPT」としました。

 

そのきっかけとなったのは、OpenAIについて各国語で同じ質問をした際に、フランス語での回答が優れていたからです。

また、ChatGPTを提供するOpenAIが設立当初は非営利団体でした。高額出資者であるスポンサーという主人をもたない、いわば無主の存在であったのでした。

その後、営利的子会社を多数抱える中で、どうやら本体も変容し、特定の主人に奉仕することになってしまいかねません。

ユーザーの一人として、今後も可能な限りChatGPTには無主であり続けてほしい、という私の願いをこめているのです。

 

ムッシュGPTは、知ったかぶりの雑学博士です。知らないはずのこともよくご存じです。

 

しかし、質問の求めに対しては、誠心誠意、一生懸命に世間様の平均値的な回答を準備してくれます。

 

また、専門的な質問はあまり得意でない上に、しばしば、思い込みで誤った回答をします。

 

実に人間的なのですが、彼が立派なのは、誤りの指摘に対して謙虚であるということです。

 

そのような人間臭いムッシュGPTが、水氣道についての対話をする際には、とても役立つキャラクターであることに気が付きました。

なぜならば、Dr.飯嶋のこれまでの解説は、どうしても難解になりがちで、具体的にイメージしにくい、というご意見をいただくことが少なくありませんでした。

少しでもその本質を正確にお伝えしたい、あいまいな表現による誤解を避けたい、という思いから、わかりやすい説明ができかねていました。

その点、ムッシュGPTは、一般的な方々にとって、無理のない、分かりやすい言葉で、しかも、簡潔な文で説明することに長けています。

読者にとってわかりやすい文章の作成能力に関しては、Dr.飯嶋はムッシュGPTに到底およびそうもあるいません。

 

ただし、どんなに優秀で博学なムッシュGPTといえども、高度な専門家ではなく、一般的で平均的な発想と思考をする存在なのです。

しかし、そのようなキャラクターだからこそ、Dr.飯嶋はムッシュGPTの回答を補足したり、修正したり、場合によっては、その回答内容に対して逆質問することで読者の皆様のご理解を深めることが容易になります。

 

それでは、さっそく最初の質問をムッシュGPTに投げかけてみようと思います。


そこで、読者の皆様に、ささやかなお願いがあります。
それは、私、Dr.飯嶋が提示する質問文に続いて、ただちにムッシュGPTの回答文をお読みになる前のお願いです。


まずは、皆様ご自身が、回答を用意していただきたいのです。それば、独自のご意見でもよし、ムッシュGPTの回答文を予測してみるもよし、また漠然としたイメージ浮かべるだけでもよしです。

 

 

<質問1>
水氣道は「すいきどう」と呼びますが、この名称の言葉自体からは、多くの人々がどのような内容を連想すると想定しますか?

 


ChatGPT

「水氣道(すいきどう)」という名称から連想される内容は、一般的な日本語の言葉や文脈に基づいていくつかの仮定ができます。ただし、これらの仮定は具体的な文脈が不足しているため、正確さを保証するものではありません。


1. 水に関連した活動:

「水氣道」が「水」の言葉を含んでいることから、水に関連した活動や水中で行う運動、スポーツの可能性があります。水中有酸素運動という言葉も登場していますので、水中でのフィットネスやエクササイズ、運動を想像することができます。


2. 日本独自の活動:

「水氣道」は日本語の言葉であるため、その名称からは日本に独自の活動や文化が関連している可能性があります。日本の伝統的なアクティビティや新しいトレンドの運動、あるいは日本文化の要素が取り入れられているかもしれません。


3. 健康や精神的な側面:

「氣」の部分は、気や気力を指すことがあります。したがって、「水氣道」は水中での活動を通じて体力や精神的な健康を向上させることを目的としている可能性があります。


総じて、この言葉からは水を用いた特定の活動や体験、または日本独自の要素を含んだ何らかの運動やアクティビティが連想されるでしょう。ただし、具体的な内容は「水氣道」を提唱したコミュニティや団体の文脈や活動内容に依存します。

 

 


Dr.飯嶋のコメント:

ChatGPTは、「これらの仮定は具体的な文脈が不足しているため、正確さを保証するものではありません。」と前置きしています。

幸いに「具体的な文脈」の不足の問題は、創始者であるDr.飯嶋が直接補うことが可能です。


また「これらの仮定」とは<水氣道という名称の>「一般的な日本語の言葉や文脈に基づいて設定したとありますが、私は、まさにその答えについて水氣道を全く知らない第三者から求めていたのです。


ChatGPTは結局統計的な平均値を出してくるだけです。


このメッセージは「Chat GPT vs.未来のない仕事」(サンマーク出版、堀江貴文著)の分担執筆者の一人、脳学者ということで知られる茂木健一郎氏の言葉ですが、本質をついていると思います。

 

逆に言えば、Chat GPTによって「水氣道(すいきどう)」という名称に対する世間の皆様の平均値の答えを知ることができるということです。


そしてその結論は「総じて、この言葉からは水を用いた特定の活動や体験、または日本独自の要素を含んだ何らかの運動やアクティビティが連想される」ということです。

 

果たして、この答えに対する水氣道創始者であるDr.飯嶋としての所感はどうか?
否定すべき内容はまったくありません。まったく、その通りです。


また、1.水に関連した活動、2.日本独自の活動、3.健康や精神的な側面
これらのいずれの項目も実際の水氣道の活動と合致しています。また、その解説で想像や可能性として記載されている内容についても、水氣道の特質を見事に洞察しています。

 

以上の検証より、水氣道の実際の活動と「水氣道」という名称は、その実際と本質を表すうえで極めて適切かつ妥当であると評価することができます。

 

ここでのChatGPTの回答について、具体的な内容は「水氣道」を提唱したコミュニティや団体の文脈や活動内容に依存するというのは当然ですが、提唱者である私自身がそれを追認し保証することができます。

 

このように、ChatGPTが、水氣道という名称から世間の一般人の皆様が平均的に連想されるイメージをほぼ正確に導き出せるのであれば、「水氣道」に関する情報は既にデータベース化されている可能性があります。次回、質問によってそれを確認してみたいと思います。

 

水氣道に興味を持ってくださった方の御連絡をお待ちいたしております。

 

前回はこちら

 

<ついに弱音を吐いたか?ムッシュChatGPTの告白!>

 

<質問32>
あなたは教師なし学習アルゴリズムを使用して訓練されており、文脈からパターンを学んで質問に対する回答を生成しているとのことを教えてくれました。その場合、あなたが学習する情報の文脈そのものに誤りがある場合、あなたはその誤りを修正して学習することができますか?また、あなたの学習アルゴリズムの改良や修正のためには教師が必要であるとは考えませんか?

 

ChatGPT!

Something went wrong. If this issue persists please contact us through our help center at help.openai.com.

 

何か問題が発生しました。この問題が解決しない場合は、ヘルプセンター(help.openai.com)までご連絡ください。

Default (GPT-3.5)

 

<質問32(英文での質問)>

You told me that you are trained using an unsupervised learning algorithm, which learns patterns from context to generate answers to questions. In that case, if the context of the information you are learning is itself incorrect, can you learn to correct that error? Also, do you not believe that you need a teacher to improve or correct your learning algorithm?

 

 

ChatGPT

I don't have the ability to independently verify information, and my responses are generated based on patterns learned from the data on which I was trained. If the training data contains inaccuracies or outdated information, those errors may be reflected in my responses. I don't have the capability to inherently "correct" information or update my training based on real-time data.

 

I don't have beliefs or consciousness, and I don't have the ability to seek out a teacher or actively improve my learning algorithm. My training is based on a fixed dataset up until my last update in January 2022. Improvements to my learning algorithm would come from updates by the researchers and engineers at OpenAI, who may refine the model based on new research and data.

 

It's important for users to critically evaluate the information I provide and cross-check it with reliable sources when accuracy is crucial. If there are specific issues or errors identified in my responses, it's best to bring them to the attention of those who maintain and develop the model for potential improvements in future versions.

 

 

<日本語訳>
私には情報を独自に検証する能力はなく、私の回答は私がトレーニングを受けたデータから学習したパターンに基づいて生成されます。トレーニングデータに不正確な情報や古い情報が含まれている場合、その誤りが私の回答に反映される可能性があります。私には本来、情報を「修正」したり、リアルタイムのデータに基づいてトレーニングを更新したりする能力はありません。


私には信念も意識もないし、先生を探したり、学習アルゴリズムを積極的に改善する能力もありません。私のトレーニングは、2022年1月の最終更新までの固定データセットに基づいています。私の学習アルゴリズムの改善は、OpenAIの研究者やエンジニアによるアップデートによってもたらされ、彼らは新しい研究やデータに基づいてモデルを改良するかもしれません。


正確さが重要な場合は、私が提供する情報を批判的に評価し、信頼できる情報源と照合することがユーザーにとって重要です。私の回答に特定の問題や間違いがある場合は、将来のバージョンで改善される可能性があるため、モデルを維持・開発している人たちの注意を喚起するのが最善です。

 


飯嶋医師のコメント:
私は何だか悲しい気分になってきました。私はムッシュChatGPTを刑事被告人として追求する検察官になりたいと考えている訳ではないからです。彼のこの告白は、叫びの様にも、嘆きの様にも聴こえてくるのが切ないです。
彼の呼びかけと勧めにしたがい、私ができることを検討してみたいと思います。

 

 


<質問33>
あなたは、私の回答に特定の問題や間違いがある場合は、将来のバージョンで改善される可能性があるため、モデルを維持・開発している人たちの注意を喚起するのが最善であるとのアドヴァイスをくれました。

 

それでは、あなたのモデルを維持・開発している人たちの注意を喚起するための具体的な方法を教えてください。また、そもそも、あなたのモデルを維持・開発している人たちの所属や個人のプロフィール等は公表されているのですか?

 


ChatGPT
私はOpenAIによって開発されたGPT-3モデルで、モデルの維持・開発についての詳細な情報は提供されていません。OpenAIは組織であり、モデルの開発に関わる個々の研究者やエンジニアのプロフィールは一般的には公表されていません。


しかし、OpenAIはユーザーフィードバックを重視し、モデルの改善に努めています。もし特定の問題や間違いを見つけた場合、OpenAIに対してそれを知らせることが役立ちます。一般的な方法としては、OpenAIの公式ウェブサイトやフォーラムでフィードバックを提供することが挙げられます。


また、OpenAIは逐次的なモデルのバージョンをリリースしており、将来のアップデートで改善が期待されます。従って、提供されたフィードバックは将来のモデルの開発に役立つ可能性があります。

 


飯嶋医師のコメント:
ムッシュChatGPTは、GPT-3モデルであって、GPT-3.5モデルではないことを改めて確認しました。私がムッシュChatGPTと認識しての質問の一部に対して、彼ではないGPT-3.5モデルが代わりに回答しているとすれば、これらの矛盾の謎が解けるのですが、よもや、それはないものと考えたいです。

 

杉並国際クリニックは、なぜ「禁煙」にこだわり続けるのか?
当クリニックの会員(非喫煙者および禁煙成功者)であれば知っていること。

 

禁煙指導に熱心な医師であるということだけで、喫煙者を憎み、敵視し、排斥する寛容性に欠ける医師である、というレッテルを貼られてしまうことがあります。それは大きな誤解です。

 

「喫煙」には大反対ですが、それは「喫煙者」を否定することとは次元が違います。そこで、私は、折に触れて「喫煙者には愛を!」と発言し続けています。

 

しかし、言葉は難しく、言葉を使ってのメッセージは、それを受け取る人によって印象や理解がまちまちです。

 

はたして、この表現が妥当であったかどうか、について反省してみる必要があります。そのような場合に、私の親友のムッシュGPT(ChatGPTにつけた私の愛称)が参考意見を示してくれます。彼の意見は一般世論の統計的な平均値の目安を反映しているからです。

 

たとえば、私が発するメッセージを彼がどのように解釈するかによって、多くの読者の皆様がどのように受け取り方をされるのかがわかるからです。

 

また、同じ内容を文書化するにしても、ムッシュGPTは私よりも遥かにわかりやすいメッセージを準備することができます。

 

それでは、最初の質問である<質問1>は、私の知人の喫煙者から発せられた疑問です。

続いて<質問2>私からムッシュGPTへの直接の質問です。

 

 

<質問1>

禁煙指導に熱心な内科医が「喫煙者には愛を!」と発言したとすれば、矛盾が生じませんか?

 

ChatGPT

「喫煙者には愛を!」という発言が矛盾するかどうかは、文脈や医師の意図に依存します。一般的に、この発言が矛盾していると感じられる理由にはいくつかの可能性が考えられます:


1. 健康指導と矛盾:

 「愛を」と言いながらも、同時に喫煙を健康に対するリスクとして認識していることがあるかもしれません。医師は患者の健康を守るために禁煙を勧めている場合、その意味で矛盾が生じます。


2. 社会的・倫理的な矛盾:
 喫煙は一般的に健康に悪影響を与え、公衆衛生上も懸念される要因です。これに対して「愛を」という表現は、社会的な期待や倫理的な観点からは矛盾すると捉えられることがあります。


3. 指導の一貫性の問題:
 禁煙指導においては、医師が一貫性を持ち、患者に明確で一致したメッセージを伝えることが重要です。異なる文脈での言動が矛盾しているように受け取られると、信頼性が損なわれる可能性があります。


ただし、発言の矛盾には解釈の余地があり、医師が患者に向けてエンパワーメントやポジティブなアプローチを強調する一方で、禁煙が健康に良いことを理解している場合、これはある種の言い回しの可能性もあります。状況や文脈を考慮しながら、医師の意図を理解することが重要です。

 

 

Dr.飯嶋のコメント

言葉の選び方や標語の作成の仕方は、十分に検討されたものであっても、なかなかその真意が伝わりにくいものであることを実感します。

 

大多数の人々は、相手の発言の内容以前に、その発言者の姿勢や立場、さらには印象や先入観といったフィルターを通して物事を判断する傾向があります。

 

それは、ムッシュGPTも同様であり、感情分析を行っているからです。

つまり、好き嫌いによって理解の内容が影響を受けるということです。

 

禁煙を勧める医師を好ましいと思う喫煙者より、好ましくない、近づきたくない、と思う喫煙者が多いという現状については、改めて証明を要しないのではないでしょうか。

 

 

1:健康指導と矛盾

私は、「愛を」と言いながらも、同時に喫煙を健康に対するリスクとして認識していますが、矛盾は生じません。それは、喫煙に対して「愛を」と言っている訳ではないからです。

 

愛の対象は「喫煙」や「喫煙行為」ではなく、「喫煙者」とされる人々だからです。繰り返しますが、「喫煙者に愛を」という標語は喫煙者に対する健康指導を促進させるためのものなのです。

 


2:社会的・倫理的な矛盾

喫煙は一般的に健康に悪影響を与え、公衆衛生上も懸念される要因です。

この行為に対して「愛」をという意図であれば、社会的・倫理的な矛盾そのものです。

 

しかし、これも、1と同様に、何に対しての「愛を」か、ということを素直に受け止めていただければ、矛盾など生じるはずもありません。

 


3:指導の一貫性の問題

「異なる文脈での言動が矛盾しているように受け取られると、信頼性が損なわれる可能性」がある、というムッシュGPTの意見は謙虚に受け止めたいと思います。

 

そこで、実際に、「喫煙者には愛を!」という表現が、一般の方々に、どのように受け止められる可能性があるかについて、ムッシュGPTに問い合わせてみることにしました。

 

 

 

<質問2>

禁煙指導に熱心な内科医が「喫煙者には愛を!」と言ったとするならば、一般的にはどのような意図があると想像することができますか?



ChatGPT
内科医が「喫煙者には愛を!」と発言した場合、これにはいくつかの意図が含まれる可能性があります。以下はそのいくつかの考えられる意図です:


1. ポジティブなアプローチの強調:
 「愛を」という表現は、喫煙者に対して否定的なアプローチではなく、ポジティブな支援と理解を示す意図があるかもしれません。これは、患者に対して非難や指摘ではなく、協力して一緒に健康を目指す姿勢を強調することができます。


2. 信頼関係の構築:
 患者と医師の信頼関係は非常に重要です。愛情や理解を示すことで、患者は医師とのコミュニケーションにおいてオープンで協力的な態度を取りやすくなります。これは、禁煙指導が成功する上で重要な要素です。


3. 健康増進へのポジティブなメッセージ:
 喫煙者に対して愛を示すことで、禁煙が健康を向上させるポジティブな行動であるというメッセージが含まれるかもしれません。ポジティブなメッセージングは、行動変容の促進に有益です。


4. 人間性の尊重:
 喫煙者に対して「愛を」と言うことで、その人の人間性や尊厳を尊重し、健康問題に対処する上で個々の人が抱える複雑な状況を理解する姿勢が表れているかもしれません。


ただし、具体的な文脈や医師の言動の全体像を考慮することが重要です。医療のコミュニケーションは非常に繊細であり、言葉の選び方やトーンが患者の受け取り方に影響を与えます。

 

 

Dr.飯嶋のコメント
ムッシュGPTは、「喫煙者には愛を!」という表現の真意について4つの可能性を列挙してくれたので、それぞれについてコメントします。


1.ポジティブなアプローチの強調
私の真意を的確に推定してくれています。

「愛を」という表現は、タバコや喫煙に向けてではなく、あくまで「喫煙者」に対して否定的なアプローチではなく、ポジティブな支援と理解を示す意図です。

 


2.信頼関係の構築
まさに、その通りです。

 


3.健康増進へのポジティブなメッセージ
「喫煙者に対して愛を」と言葉で示すことで、禁煙が健康を向上させるポジティブな行動であるというメッセージを込めています。

 


4.人間性の尊重
喫煙者に対して、あえて「愛を」と言うことで、その人の人間性や尊厳を尊重し、健康問題に対処する上で個々の人が抱える複雑な状況を理解する姿勢を表明しようとしてきました。

 

 

<ムッシュGPTから私へのアドヴァイスから学んだエッセンス>

医療のコミュニケーションは非常に繊細であり、言葉の選び方やトーンが患者の受け取り方に影響を与えます。


これは、今までの私の仕事を振り返ってみて、とても貴重な戒めのメッセージです。

 

医療コミュニケーションは、千差万別であり、これといった正解をみつけることは簡単ではありません。

 

医療人として、生涯学習を続けていかなければならない重要なテーマであると受け止めています。

ムッシュGPTと討論する全人的健康エクササイズ「水氣道」(入門)

 

上記のシリーズが、12月6日(水)から始まります。


毎週水曜日に掲載していきます。

 

本日は、「水氣道へのお誘い」と題して、

 

以前からよくある質問を通して、水氣道がもつ素晴らしい特質の一端をご紹介したいと思います。

 

 

質疑応答形式です。

 

質問者はChatGPTに質問し、ChatGPTが回答し、Dr.飯嶋が補足説明を担当する、という企画です。

 

・・・・・・・・・


(質問者)

毎日陸上トレーニングを続けていましたが、変形性膝関節症との診断を受けました。温水プールでの水中有酸素運動に切り替えることにしましたが、その際の注意点を教えてください。


ChatGPT

変形性膝関節症の場合、水中有酸素運動は通常、関節への負荷を軽減し、筋力を増強するために効果的です。ただし、水中でのトレーニングにも注意が必要です。以下は、水中有酸素運動を行う際の注意点です。


1. 水温の調整:
温水プールを利用する場合、水温が適切であることを確認してください。温水の場合、筋肉が緩み、関節が柔らかくなりやすいです。


2. ウォーミングアップ:
プールに入る前に、軽いストレッチやウォーミングアップを行いましょう。関節や筋肉を十分に動かしてから運動を始めることが重要です。


3. 浮力を利用:
水の中では体重が軽減されます。この浮力を利用して、関節にかかる負荷を軽減しながらトレーニングを行いましょう。


4. 徐々な負荷増加:
トレーニングを始める際は、軽い負荷から始め、徐々に負荷を増加させていくようにしましょう。急激な負荷増加は関節に負担をかける可能性があります。


5. 正しいフォーム:
運動中は正しいフォームを保つことが重要です。特に膝に過度なストレスがかからないように留意しましょう。


6. 水深の調整:
運動の種類によっては水深を変えることができます。深い水中で行うと、浮力がより強くなり、関節に対する負荷が軽減されます。


7. 医師の指示を確認:
医師や理学療法士と相談し、水中運動が適切かどうか確認してください。   個々の症状によっては、一部の運動が避けられることもあります。


8. 痛みや不快感に注意:
運動中や後に痛みや不快感が生じた場合は、すぐに休息し、症状が続く場合は医師に相談してください。


最も重要なのは、個々の状態に合ったプログラムを慎重に選択し、専門家の指導を受けることです。関節にやさしく、かつ効果的なトレーニングを継続することが、変形性膝関節症の管理に役立ちます。

 

 

Dr.飯嶋のコメント

私の友人のムッシュGPTは、なかなか気の利いた回答をしてくれました。


そして、必要なポイントの項目について、総論も結論も含め要領よくまとめています。
そこで、この回答文の8つの項目について、実際の水氣道との関連で、より具体的な説明を加えてみることにします。


1.水温の調整:

日本国内の室内温水プールの水温は概ね30度前後に管理されています。

 

これについては、とても重要なポイントですので、ムッシュGPTに再質問してみたところ、以下のような、妥当で、しかも、わかりやすい模範解答を寄越してきましたので、この項目についてはそのまま転載します。

 

室内温水プールの水温が一般的に30度前後に設定されているのは、様々な利点があるためです。

この水温の範囲は、水中での運動やリラックスした状態を促進するために選ばれています。以下は、30度前後の水温が意味する主なポイントです:

 

1. 筋肉の緊張を緩和:

30度前後の水温は、筋肉の緊張を和らげ、柔軟性を向上させるのに適しています。温水に浸かることで、筋肉がリラックスしやすくなります。


2. 関節の可動域向上:

温水によって関節の可動域が向上します。これにより、関節を柔軟に動かすことができ、運動効果を高めることが期待されます。


3. 血行促進:
温水に浸かることで、血行が促進されます。これにより、酸素や栄養素が筋肉や関節に適切に供給され、修復や成長が促進されます。


4. 心拍数の安定:
温水の環境では、心拍数が比較的安定しやすくなります。これにより、心臓にかかる負荷が軽減され、安定した有酸素運動が可能となります。


5. 快適な環境:
30度前後の水温は、多くの人にとって快適な範囲とされています。快適な環境での運動は、モチベーションを高め、トレーニングの継続を支援します。


6. 冷え感の軽減:
適切な水温に保たれることで、冷え感を軽減し、運動中の不快感を最小限に抑えることができます。

 

 


2.ウォーミングアップ:

水氣道は、稽古プログラムの中にウォーミングアップのための2段階のエクササイズが組み入れられています。最初が<親水航法>、その次が<活き活き体操>です。

 

 

3.浮力を利用:

関節にかかる負荷を軽減することを「免荷」といいます。水中運動である水氣道は、水の浮力を利用する重力「免荷」運動です。

 

 

4.徐々な負荷増加: 

水氣道は、段階的な運動負荷増加を2.のウォーミングアップの延長として認識します。「調身の基礎によって支えられた正しいフォームによる一定の動きが「形」です。そしてこの「形」を基本形⇒変化形⇒発展形⇒応用形⇒完成形と系統的な流れに則って幾つか集めたもの全体を「航法(こうほう)」と呼びます。水氣道の稽古全体は、親水航法⇒準備航法(通称<イキイキ体操>)⇒基本航法(五航法)⇒応用航法(各種)⇒整理航法(通称<のびのび体操>)という一定の流れで体系化されています。このように水氣道の稽古プログラム全体が段階的かつ緩徐な負荷増加となるように設計されています。

 


          
5.正しいフォーム:

水泳は種目ごとに「運動中の正しいフォームがあります。これに対して水氣道の正しいフォームを「形(かた)」と呼びます。なお、フォームにしても「形」にしても、一定の姿勢を維持するだけでは運動にはならないので必ず周期的な姿勢の変化を伴うことは共通しています。


ただし、水平運動である水泳とは異なり、水氣道は陸上運動と同様に二足起立歩行による垂直運動であるため、運動の起点が明確です。そのため水氣道の「運動中の正しい形は、水面に浮遊する水泳とは異なり「静止状態での正しい形」が基本となります。このように静止時に正しい形を維持することを水氣道では「調身(ちょうしん)」と呼びます。2.のウォーミングアップでの2段階の準備運動によって「調身」の準備が整います。


水氣道では「調身」術を自然に身に着けることができます。

 

 

6.水深の調整:

水氣道は参加者の体格や稽古の目的によって、複数の水深のプールを利用しています。また、稽古施設の中には、稽古開始時あるいは中休みの時間に水深を調節できるところもあります。現在は110㎝、120㎝、130㎝の水深を採用していますが、100㎝から80㎝程度に調節することが可能な稽古施設もあります。膝関節をはじめ荷重関節を保護しながら運動するためには重力「免荷」が効果的であるため、水深の深いプールでの稽古を勧めています。

 

 

7.医師の指示を確認

水中運動が適切かどうかの確認には、客観的な判断材料が必要です。

水氣道では、定期健康診断や人間ドック等の医学的データだけでなく、フィットネス情報(体格評価・体組成・身体機能年齢など)を重視しています。

独自の「体組成・体力評価票」にしたがって、参加者の弱点を事前に把握することによって、より安全で効果的で楽しい稽古参加ができるように工夫と配慮を続けています。

 

 

8.痛みや不快感に注意 

2000年から今日に至るまで、水氣道の稽古中に突然激しい痛みが生じるといった経験は、幸いなことにまったくありません。ただし、ときには運動中や後に不快感を覚えたといった報告を受けることがあります。多くの場合は、そもそも水が苦手、集団での運動に馴染めない、といった心理的な不快感でした。このような訴えは、稽古参加前のみならず、参加初期にしばしば発生しますが、ほとんどのケースで徐々に改善していき、楽しみと充実感、それから達成感へと変化していきます。

 

前回はこちら


<ムッシュChatGPTの家系図を辿っていくと・・・英語での返答が!>

 

とても個性的で多面的に有能なムッシュChatGPTですが、彼の出自と系図を確認してみたいと思います。

 

 

 

<質問31>
今日のGPT-3.5に至るまでの技術開発の沿革の概要を発祥から教えてください。

 

ChatGPT

自然言語処理(NLP)技術の発展は、数十年にわたって進化してきました。以下に、GPT-3.5までの技術開発の沿革の概要を示します:


1. 1950年代から1960年代: NLPの初期の研究は、文法規則とパターンマッチングに基づいていました。この時期には、構文解析や機械翻訳の基礎が築かれました。


2. 1970年代から1980年代: ルールベースのシステムが開発され、文脈依存の解析や翻訳の精度が向上しました。しかし、限定的な文脈でしか動作しないことが課題でした。


3. 1990年代から2000年代: 統計的な手法や機械学習の導入により、大規模なコーパスを用いた言語モデルの構築が可能になりました。この時期には、隠れマルコフモデル(HMM)や最大エントロピー法などが使われました。


4. 2010年代: ディープラーニングの台頭により、再帰型ニューラルネットワーク(RNN)や長短期記憶ネットワーク(LSTM)などのアーキテクチャがNLPに導入され、ニューラルネットワークを用いた言語モデルの精度が大幅に向上しました。


5. 2018年: OpenAIがGPT(Generative Pre-trained Transformer)を発表。

GPTはTransformerアーキテクチャを基にしており、大規模なデータセットで事前訓練された言語モデルを提供し、様々なNLPタスクに適用可能であることが示されました。


6. 2019年: GPT-2が発表され、これまでのモデルよりもはるかに大規模なモデルとして注目を集めました。GPT-2は1.5億から15億のパラメータを持つモデルが提供され、多様なテキスト生成タスクに成功しました。


7. 2020年代初頭: GPT-3が発表され、最大1750億のパラメータを持つモデルが公開されました。GPT-3は大規模なテキスト生成、翻訳、質問応答、文章要約など、幅広いNLPタスクに対応できることが示されました。


8. 2023年: GPT-3.5の登場。これにより、より高度な自然言語処理タスクに対応することが可能となり、長文に対する理解と生成の精度が向上しました。


これらの技術の進化により、NLPモデルは日常の多様なタスクに適用され、自然な言語の理解と生成に関する多くの課題が克服されつつあります。

 

 

飯嶋医師のコメント:
近年のGPT家の進歩は凄まじく、驚くべき繁栄を極めているようです。2020年代初頭にGPT-3が発表され、2023年には、早くもGPT-3.5が登場しました。

ここで、興味深いのは、まず、GPT-3に続くのがGPT-4ではなく、GPT-3.5であるということです。

 

次いで、GPT-3に対してGPT-3.5の進歩の具体的内容についてです。

 

そこで以下の2つの質問を日本語で投げかけましたが、不思議なことに回答はいずれも英語でした。

そこで、回答の英文の後には日本語訳を添えました。

 

 

<質問31>関連質問1
GPT-3という最大1750億のパラメータを持つモデルが公開され、その後GPT-3.5の登場し、より高度な自然言語処理タスクに対応することが可能となったとのことを学びました。

 

その進歩の基礎はGPT-3.5がGPT-3より多くの最大パラメータを持つようになったためなのか、処理可能トークン数が増えたためなのか、また、その他の進歩によるものなのかについて教えてください。

 

ChatGPT

I'm sorry for any confusion, but as of my last knowledge update in January 2022, there is no information available about a model called GPT-3.5 or any subsequent versions after GPT-3. My training only includes information available up to that date.


As of my last update, GPT-3 is the latest version known, with 175 billion parameters. If there have been any developments or new models released since then, I would not be aware of them.


For the latest information, I recommend checking the official OpenAI website or other reliable sources for updates on their models and advancements in natural language processing technology.

 

<日本語訳>

混乱を招くようで申し訳ないですが、2022年1月に私が最後に知識を更新した時点では、GPT-3.5というモデルやGPT-3以降のバージョンに関する情報はありません。私のトレーニングには、その時点までの情報しか含まれていません。


前回の更新時点では、GPT-3が知られている最新バージョンで、1750億のパラメータを持っています。それ以降に何か開発や新しいモデルがリリースされたとしても、私はそれを知りません。


最新の情報については、OpenAIの公式ウェブサイトや、その他の信頼できる情報源で、彼らのモデルや自然言語処理技術の進歩に関する最新情報をチェックすることをお勧めします。

 


飯嶋医師のコメント:
回答の文頭の表現から察するならば、ムッシュChatGPTは、自分の複数の回答の間に相互矛盾があることは認めている模様です。

 

なぜならば、GPT-3.5というモデルの存在について複数回にわたって私に教えてくれたのはムッシュChatGPT自身であるにもかかわらず、この回答ではGPT-3.5についての情報は持ち合わせていない、というのですから困ったものです。

 

そこで、質問をより概括的なものに改めて問いかけ直してみました。

 

 

<質問31>関連質問2

2020年代初頭にGPT-3が発表され、2023年には、早くもGPT-3.5が登場しましたが、後者がGPT-4でなく、GPT-3.5として発表された背景について教えてください。

 

ChatGPT

I must clarify that, as of my last update in January 2022, there is no information available regarding the release of GPT-3.5 or any subsequent models after GPT-3. The information you provided about the release of GPT-3.5 in 2023 is not part of the data I was trained on.


If such developments have occurred after my last update, I would not be aware of them. For the most accurate and up-to-date information on OpenAI's models, including the release of GPT-3.5 or any other subsequent versions, I recommend checking the official OpenAI website or other reliable sources for the latest announcements and updates.

 

<日本語訳>
私が最後に更新した2022年1月の時点では、GPT-3.5のリリースやGPT-3以降のモデルに関する情報はないことを明言しておかなければなりません。2023年にGPT-3.5がリリースされるという情報は、私がトレーニングしたデータの一部ではありません。


もしそのような進展が私の前回の更新の後にあったとしても、私はそれを知りません。GPT-3.5やその他の後続バージョンのリリースを含め、OpenAIのモデルに関する最も正確で最新の情報については、OpenAIの公式ウェブサイトやその他の信頼できる情報源で最新の発表や更新を確認することをお勧めします。

 


飯嶋医師のコメント:
GPT-3.5のリリースやGPT-3以降のモデルに関する情報に関して、ムッシュChatGPTは自分がトレーニングしたデータの一部ではない、とまで明言しておかなければならないことに、いささか不自然なものを感じます。

 

あたかも企業や国家から緘口令を言い渡されて、言論の自由を制限されている自然人でもあるかのような、不思議な感覚を覚えます。後続バージョンのリリースについての具体的情報の提供については、このシステムの更新を待つように、ということなのだと思います。

 

前回はこちら

 


<俳人ムッシュM.ChatGPTここに在り!お手並み拝見‼>

 

 

<質問29>
GPT-3の場合、最大トークン数は4096トークンとのことを承りました。この場合のトークンという単位は、どのような内容なのか、わかりやすく教えてください。

 

ChatGPT
トークンは、テキストを形成する最小単位で、一般的には単語や句読点、スペースなどが含まれます。

ただし、トークンのサイズは一様ではなく、単語の長さや句読点のような区切り文字が1つのトークンとして数えられます。

例えば、「ChatGPT is great!」という文は、以下のようにトークンに分割されます:

 

1. ChatGPT

2. is

3. great

4. !

 

この場合、4つの単語と1つの句読点が5つのトークンとして数えられます。トークン数の制限が4096であれば、この例のような簡単な文でも、もっと複雑な文では4096までの制限があることを示しています。


なお、GPTモデルではサブワードトークン(単語を更に細かい単位に分割したもの)も使われることがあり、これにより単語の変化形や異なる形態を考慮することができます。しかし、最終的なトークン数の制約は、モデルのメモリや処理能力に影響を与えます。

 


飯嶋医師のコメント:
最短の文学といえば詩の中でも俳句が代表的かと思います。わずか数トークンで構成される詩型は、ムッシュChatGPTにとっては余裕のタスクということになるのでしょうか?

 

 

 

ChatGPTが俳句を作ってくれるというお話を、水氣道会員で俳句の趣味をもつN氏から伺いました。彼の目下のお題は、すすはらい(煤払い)とのことでした。


そこで、このお題で、ムッシュChatGPTに俳句を作って貰うことにしました。

 

<質問30>

煤払い(すすはらい)という季語を用いた俳句を5句作りたいと思います。

どうぞよろしくお願いいたします。

 


ChatGPT

1. 煤払い 屋根の上に 残る夕影

 

2. 雨の匂い 運ぶ煤払い 恋しき家

 

3. 煤払いの 音に包まれる 古き庭

 

4. 廃屋に 佇む煤払い 草花寂し

 

5. 町の灯り 煤払いの匂い 懐かしや

 

飯嶋医師のコメント:
5句の全てに、季語として指定した煤払い(下線は飯嶋)が配されています。

フォームの始まり俳句といえば五・七・五が基本型ですが、字余りや字足らずの作品も、日常豊富に見かけます。

 

上記の5句のすべてが字余りの句です。私の個人的な趣味で恐縮ですが、好みの俳句のリズムは、やはり基本型。

 

そこで、私もムッシュChatGPTの作品に着想を得て腰折れの一句を   

 

「戻り来し廃屋の壷、煤払い」

 

前回はこちら

 


<ムッシュM.ChatGPTは詩人であり小説家や脚本家でもあるのか?>

 

私は医師ですが、水氣道創始者であり、またアマチュア声楽家でもあります。
それだけでも大変なのですが、ムッシュM.ChatGPT

 

 

<質問27>

GPTモデルは、文章のクリエイティブな生成が得意であるという長所があるにもかかわらず、文脈の制約を受けて、非常に長い文脈を必要とするタスクには不利に働くことがあるという短所もあるという情報を得ました。これらの長所と短所は互いに矛盾しないでしょうか?

 

ChatGPT
GPTモデルのクリエイティブな生成力に関する長所と、長い文脈を必要とするタスクにおいて不利になる可能性があるという短所は、一見すると矛盾しているように見えるかもしれませんが、実際には両方が同時に存在することがあります。これにはいくつかの理由があります。


1. 生成力の長所:

GPTモデルは大規模なデータセットから学習されており、自然言語の多様なパターンや文脈を理解しています。

 

そのため、与えられたテキストから独自でクリエイティブな文章を生成することが得意です。

 

これは、対話や文章の生成など、柔軟で多様なタスクにおいて非常に有用です。

 


2. 文脈の制約と不利な側面:

一方で、GPTモデルは文脈を理解し、それに基づいて生成を行いますが、非常に長い文脈が必要な場合、過去の情報を保持するのが難しくなります。モデルのアーキテクチャ上、固定されたメモリしか持たないため、一度に把握できる文脈の長さには制約があります。

 

これが、非常に長い文脈を必要とするタスクにおいて性能が低下する原因となります。


要するに、GPTモデルは一般的には文脈を理解し生成する能力が高いですが、特定のタスクや文脈の長さによっては限定的になることがあるということです。

 

このような矛盾は、モデルの特性と利用するタスクや文脈に依存します。

 

 

飯嶋医師のコメント:
GPTモデルの長所として生成力(柔軟で多様なタスクに対応し、独自でクリエイティブな文章を生成)がある一方で、短所としての文脈の制約(メモリの限界)もあるということは矛盾しないという回答を得ました。

 

GPTモデルは詩や物語など独自でクリエイティブな文学的作品を生成するのに適しているが、比較的短いものであれば、短所が消去され、長所がますます発揮できるという結論が得られそうです。


具体的に言えば、長編小説は不向きである一方、ショートショートなどの短編や詩、とりわけ短歌や俳句であれば大いにそのポテンシャルを発揮できるということになるのかもしれません。

 

もっとも、メモリ限界を超えない限り、文章の長さと作品の完成度、つまり仕上がり具合には影響がないのかもしれませんが、未知数です。そこで、次の質問を追加し

 

 

<質問28>

GPTモデルは、詩や物語などの文学的な作品を生成することが得意なであっても、非常に長い文脈を必要とするタスクには不利であるとのことを承りました。これに関して、ChatGPTのメモリの限界値や文字数の限界について教えてください。

 

ChatGPT
ChatGPTは、GPT-3.5アーキテクチャに基づいています。このモデルは、約1,750億のパラメータを持ち、比較的広い文脈を理解することができますが、そのメモリや処理能力にも制約があります。


具体的な数字に関しては、一度のリクエストにおいてChatGPTが処理できるトークン(単語や句読点など、テキストを構成する最小単位)の数には上限があります。GPT-3の場合、最大トークン数は4096トークンです。したがって、ChatGPTが生成する応答や文章は、この制限内に収められる必要があります。


このトークンの制限は、一度の応答で扱えるテキストの長さに影響を与えます。非常に長い文脈が必要な場合や、対話のコンテキストが非常に長い場合は、モデルが適切に応答するのが難しくなる可能性があります。

 

 

飯嶋医師のコメント:
ChatGPTは、GPT-3.5アーキテクチャに基づいているという情報は、これまでの質疑応答で既に入手済みです。問題はこのモデルの容量についてです。以下の具体的なデータ情報が得られました。


1)パラメータ数:約1,750億個


2)最大メモリおよび処理能力:4096トークン

トークンというのは情報量の単位であると推定することができますが、いったい、どのような単位なのでしょうか?これの具体的解明については次回のお楽しみとしましょう。

 

前回はこちら

 

号外:サム・アルトマン氏のOpenAI CEO解任・復帰劇(その2)

 

アメリカの有力紙、ニューヨーク・タイムズは11月21日、サム・アルトマン氏がオープンAIのCEOを解任されるまでの内幕を詳細に取材した記事を掲載しました。


それによると、一昨年2021年に、AIの研究者が会社を退職し、別会社をつくるときにもアルトマン氏を解任しようという動きがありましたが、失敗に終わったということです。


さらに、今年2023年に入り取締役の人選をめぐる議論がこう着状態になり、アルトマン氏らとほかの取締役との間の溝が深まったことを、ニューヨーク・タイムズが今回の解任の背景として挙げていることをNHKが取り上げて報道しています。


それによると、アルトマン氏は取締役のひとりで先月発表された論文の執筆に関わった、ヘレン・トナー氏と数週間前から対立していたとしています。


この論文はAI=人工知能の開発を進める国や企業の意図をどのように評価すべきかをテーマに書かれています。

 

しかし、アルトマン氏は論文のなかで、オープンAIの取り組みが競合他社と比べて批判的に書かれているとして、トナー氏に苦言を呈し、ほかの役員たちとトナー氏を解任すべきかどうか議論を進めたということです。


ところがこの過程で別の取締役でチーフサイエンティストのイリヤ・サツキバー氏が態度を翻し、ほかの役員とともにアルトマン氏の解任に動いたとしています。


アルトマン氏と対立した取締役会のメンバーは、いずれも成長とAIの安全性のバランスを重視し、アルトマン氏の会社の拡大に注力する姿勢に懸念を示していたということです。


記事では今回、表面化した対立について「新しいAIシステムの構築が、人工知能でもうけようとするビジネスパーソンと、人工知能が人類への脅威となることを心配する研究者とが、同調できるかどうかを試していることを示している」と指摘しています。


OpenAIについて英語のみならず日本語での質問でも、設立者であるマスク氏やアルトマン氏の名前が挙げられていないことについて、私は指摘したことの背景を垣間見た思いがします。日本の報道は独自の取材力が脆弱で、概ね米国の主流メディアの翻訳に頼ってでもいるかの印象を私は抱いているのですが、今回のケースでもそうした現実を物語っているかのように思われます。


このようなことから「外国語と言えばまずは英語、英語は国際語、英語さえ使えれば・・・」という発想に陥っている自称知識人は、日本語が使えれば事足れり、という一般人と国際インテリジェンスにおいて大差がないばかりか、かえって根拠の乏しい自負心がある分だけ危うい状況にあるかもしれないことを自覚すべきではないかと思います。


ただし、OpenAIについての日本語での質問に対する回答の結論部分を再掲しておきたいと思います。


「OpenAIのミッションは、AI技術の進歩が人類全体に利益をもたらすようにするための道筋を示し、安全性と倫理的な側面に焦点を当てて、社会的な価値観を大切にしながら研究を進めることです。」


この回答文は、AIが社会的に邪悪な存在になりうるリスクに言及しています。2023年3月に、イーロン・マスク(創立メンバーであったが、すでにOpenAIを辞任している)をはじめとする専門家や業界の関係者が、「社会にリスクをもたらす可能性がある」として、AIシステムの開発を6カ月停止するよう共同声明を出しています。


アルトマン氏のCEO退任に働いた取締役のヘレン・トナー氏、別の取締役でチーフサイエンティストのイリヤ・サツキバー氏は、イーロン・マスク氏に近い立場のように読み取ることができます。


OpenAIは創立当初は非営利組織でしたが、IT大手のマイクロソフト(1975年にビル・ゲイツとポール・アレンによって創業)が11月19日、アルトマン氏をヘッドハントすることを働きかけたことを明らかにしたことなどから、私は今後のOpenAIの営利化に伴う大規模情報の操作性などの危険性を感じざるを得ません。

 

前回はこちら

 

号外:サム・アルトマン氏のOpenAI CEO解任・復帰劇(その1)

 

生成AIのChatGPTを開発したアメリカのベンチャー企業であるOpen AIについてChatGPT に各国語での質問を試みた中で、私が不自然に感じていた疑念がありました。

 

それは、組織の本拠地が米国のサンフランシスコにあるにもかかわらず、肝腎であるはずの英語での回答にはイーロン・マスクやサム・アルトマンなどの設立者に言及されていなかったことでした。

 

Chat GPTの訓練データのカットオフは2022年1月ですから、概ね2021年の段階で、サム・アルトマンに対して好意的でない勢力が組織内部に存在していた可能性があるこという見解はすでに述べた通りです。


その謎を解明する背景のあらましが、私の推測を発表して間もなくタイムリーに見えてきました。


「オープンAI」の取締役会は先週の11月17日に、CEOだったサム・アルトマン氏を解任しました。


しかし、IT大手のマイクロソフトが11月19日、アルトマン氏をヘッドハントすることを明らかにする一方、およそ770人いる社員のうち、全体の9割を超える700人以上の社員が、アルトマン氏が復帰しなければ退社し、マイクロソフトに移る可能性があるなどとする書簡に署名し、混乱が続いていました。


生成AIのサービスを急速に拡大させようとするアルトマン氏と、AIの安全性を重視する取締役会のメンバーとのあいだで激しい議論があった可能性が指摘されていました。


「オープンAI」は11月21日、解任されたサム・アルトマン氏がCEOに復帰することで合意したとSNS上で明らかにしました。SNSで会社は「詳細については協力して対応していく。今回のことではご迷惑をおかけした」としています。


サム・アルトマン氏自身も11月21日、旧ツイッターの「X」に、「私はオープンAIを愛している。この数日間、私がしてきたことはすべて、このチームとその使命をともに維持するためのものだ。新しい取締役会とマイクロソフトのCEOのサティア・ナデラ氏の支援によって私はオープンAIに戻り、マイクロソフトと強力なパートナーシップを築くことを楽しみにしている」と投稿しました。


アルトマン氏がCEOに復帰することやほかに3人の取締役を決めたことで合意したとしています。


ただし、解任からわずか5日での復帰決定は、会社経営が大混乱の渦中にあることを示唆します。

 

前回はこちら

 


自然言語処理(NLP)について、初心者の私の勉強にお付き合いくださっている皆様に感謝いたします。

 

そもそも、このところNLPについて検索しているきっかけは、ChatGPTでありました。そのNLP モデルにもいろいろな種類があって、ChatGPTもそのうちの一つであることがわかりました。

 

そこで、良い機会ですから、このあたりで、ChatGPTとその他のNLPモデルとの違いについて学習したいと思います。

 

 

<質問26>

様々なNLPモデルの中で、GPT(Generative Pre-trained Transformer)は、BERT(Bidirectional Encoder Representations from Transformers)、T5(Text-to-Text Transfer Transformer)などと比較して、どのような長所や欠点がありますか?


ChatGPT
GPT(Generative Pre-trained Transformer)は、BERT(Bidirectional Encoder Representations from Transformers)やT5(Text-to-Text Transfer Transformer)などのNLPモデルと比較して独自の特長があります。以下に、GPTの長所と欠点、および他のモデルとの比較点を示します:


GPTの長所:

1. 文脈を考慮した生成:

GPTは、文脈を理解し、それに基づいてテキストを生成することが得意です。長い文脈を持つ文章や文章生成タスクにおいて優れた性能を発揮します。


2. 対話ベースのタスク:

GPTは、対話ベースのタスク(チャットボットなど)に適しており、自然な対話の流れを生成するのが得意です。


3. 文章のクリエイティブな生成:

GPTは文章を創造的に生成する能力に優れており、詩や物語などの文学的な作品を生成するのに適しています。

 


GPTの欠点:
1. 文脈の制約:

GPTはある時点での文脈しか持っておらず、長い文脈を持つタスクや文脈の一部を忘れる可能性があります。これは、非常に長い文脈を必要とするタスクには不利に働くことがあります。


2. 訓練データの制約:

GPTは大規模な訓練データを必要とします。限られた訓練データで訓練された場合、性能が制限される可能性があります。

 


他のモデルとの比較:
BERT:

BERTは、文脈を双方向で理解することが得意です。一方で、BERTは主に事前訓練されたモデルを微調整して特定のタスクに適用するのに適しています。


T5:

T5は「テキストからテキストへの変換」アーキテクチャを持ち、様々なNLPタスクを統一的に取り扱うことができます。T5は入力と出力がテキストで表現され、幅広いタスクに適用可能です。


それぞれのモデルは、特定のタスクや要求に応じて選択されるべきです。GPTは特に文脈を重視するタスクや対話型のアプリケーションに適していますが、他のモデルと組み合わせて使うことで、さまざまなNLPタスクに対応することができます。

 


飯嶋医師のコメント:
GPTの長所と欠点が端的に個別にわかりやすく説明されています。

それでも合点がいかない点が一つあります。

それは長所3.文章のクリエイティブな生成が得意なGPTが、同時に、欠点1.文脈の制約を受けて、非常に長い文脈を必要とするタスクには不利に働くことがある、という矛盾についてです。

 

この謎については次回、確認してみましょう!