2025年3月14日金曜日

久しぶりに牛岳登山 クレバスに落下

 久しぶり、10月以来の登山になるだろうか。
ようやく、山に行くことができた。
しかし5か月ほどのブランクは大きく、足の筋肉の衰えを感じた。
その所為だろうか、転んだりバランスを崩したり。
しかも今日は大雪の名残の雪がざらめ状態で1m以上残っている状況。
スノーシューを持って行かなかった。3月にスノーシューなど不要だと思っていた。
実際に歩みを進めると、ほぼ確実に深く踏み抜き、まるで新雪の後のような感じがした。
このため、頂上に着いた時には、へとへとになってしまった。ほかの方々は皆、スノーシューを装着されていたのに。

帰り道、クレバスに落ちてしまった。まともに落ちていたら、たぶん上がれなかった。
運よく、ザックに引っ掛かったので、なんとか上がることができた。
とにかく、雪の状態は最悪だった。3月でスノーシューが必須だという状況は、想像すらしていなかった。

帰り道、転落したクレバス。危なかった。




最高の快晴だったな





山頂
















2025年3月6日木曜日

AIによって何かが阻害されるわけではない

 


「続けること」への迷いが、生成AIによって増えているのかもしれない|Alpaka

AIは、「全く」人間の仕事を奪う存在ではない。そのようなことは、決してできない。
それは今まで述べてきたことで明らかだろう。だいいち、AIは「意識を持たない」。
また自ら「意志」を持たない。そのように見えているだけであり、その実体は「乱数」である。
このような存在がどうして「創造」できるだろうか?何かを生み出せるだろうか?
AIの専門家たちは、このことをとっくに承知している。
そして、AIの限界も。
さらにそれを「どのように使ったらよいのか」も、知っている。それは、人間の検索の用途に対して、非常に有用である、というだけだ。
したがって、上のリンクで言われているような懸念は、まったく必要ない。

どれだけ巨額の投資をしてみても、「できない」ものは出来ない。
不可能なことは、不可能だ、という意味である。
巨大な乱数生成器に、どれだけ資金を投入してみても、「人間の頭脳以上の神」を作ることは出来ない。
むしろ、AIをこれほどまでに有用にしているのは、人間が今まで世界中で公開してきたデータの方である。
それは、過去に人間が「創造」した、様々な論文やデータの蓄積を、統計学的理論などを用いて、使いやすくしただけのツールなのだ。
決して「自ら考えて」いるわけではない。
考えるのは、人間の方である。
そこを間違えると、くだらないものに、巨額の投資をしてしまうことになる。

人間の脳はAIよりも、はるかに、はるかに優れたものである。
なぜなら、人間の脳は、生きているからだ。

その辺りを誤解しているひとがあまりに多い。
人間は、アメーバ一つほどの生命体ですら、ゼロから合成できない無知なる存在である。
ただ、それを自分の思い通りに操ることが得意な存在にすぎない。
決して、このような存在は「神」にはなれないのだ。

2025年3月2日日曜日

ハルシネーション

 


AIの本質がだんだんわかってきた。これは情報を集めるのには有用だ。特にプログラムを書くときには非常に有用だと思う。
しかし、AIで人間の書くような文章を作ることは難しい。なぜならAIは「行間」を読めないから。

人間は「書かなくてもわかる」ことを知っている。その書かれない部分というのは、もちろん書くのがためらわれたり、公に書いたりすることが良くない、あるいは、倫理的に間違っていることも含むが、たいていの場合は、相手の想像に任すという部分だ。
その文脈は、社会的な「不文律」やルールで自然と決まってくる。しかも、それは地域や社会によって違う場合もある。
それをAIが理解し、適切な回答をする、ということは、現時点ではありえない。

ある程度整った文脈、たとえば、プログラミングや数式であれば、AIは実に精確な回答を与えてくれる。
しかし、それが小説や文学や詩、俳句や短歌のようなものであった場合、とたんにでたらめな回答を生成するようになる。
しかも、その中には無理やり行間を適当な言葉で詰めたものも出来上がる。
これを「ハルシネーション(幻覚)」と言うらしい。
AIが幻覚を生成するとは、おもしろい発想だが、ようするにもっともらしい嘘を生成してしまうのだ。

まあ、我々自身の思考がすでに「ハルシネーション」の要素を多分に含んでいるのだが、AIのそれは、「ハルシネーション」らしくない幻覚というか、すぐにわかる幻覚なのである。

AIは人間の脳にすぐに追いつく、などと夢物語を語る人もいるが、完全に誤りである。
囲碁などのAIが人間の能力を上回っているのは、過去に人間が打った手をすべて記憶しており、統計的にもっとも数値が高い解答を利用しているにすぎない。
勝ちと負けしかないゲームには有効だが、それがそもそも存在しない人間社会という複雑系に対して対応できるAIが現れるという段階には程遠い。

たしかに昔のデータベース管理システムに比べれば、格段の進歩はあるのだが、やっていることは、本質的には変わらない。
「たくさんのデータの中から、最適なものを選ぶ」ということである。
この用途に使用する限りにおいて、AIはとても強力なツールになるだろう。

2025年2月23日日曜日

AIの擬似ランダム要素について

難しい話なので興味ない人は読まなくていいです。
最近AIのプログラムを書いてみているので、その副産物です。

※ コンピューターで生成される「乱数」は計算されたものであり、本当の乱数ではありません。そのために「擬似乱数」と言われています。

AIの深層学習ではモデルのトレーニングに「ランダムシード」というものを使います。
例えば

  X_train, X_val, y_train, y_val = train_test_split(X, y, test_size=0.2, random_state=62)

のrandom_stateという値がそうです。これによって検証データやトレーニングデータをランダムにシャッフルするそうです。(test_sizeはテストデータの割合を示します。これはモデルが期待通りに教育されたかどうかを検証するためのデータらしいです。これを最初に20%取っておきます。これは今の話には関係ないです)
なぜそんなことをするのか、というと「モデルの汎用性を高めるため」。

また、各パラメーターの重みの初期化にもランダムが使われているそうです。
そのため「モデルのトレーニングにおいて、ランダムシードは重要な役割を果たします」ということらしいです。

これについて興味深い事実が明らかになったそうな。

 Xユーザーの中西正樹 | データサイエンティストさん: 「全ての機械学習や深層学習に関わる人は一度読んでほしい論文。 https://t.co/NBoKL7vENJ Torch.manual_seed(3407) is all you need っていうタイトルが攻めすぎてて面白い笑」 / X

このランダム値をどのように設定するか、によってとても学習効率が上がったり、パフォーマンスが上がったりする「ように」見えるそうです。

つまり、それほど正確にも高速にもモデルがトレーニング出来ていないにもかかわらず、そのように見えることがある、ということです。

これは例の「DeepSeek」や「Sakana.AI」の問題にも関連します。劇的に学習効率が上がるのがなぜなのか不明であったり、AIが自律的に自分のパフォーマンスを改善する、という論文が真っ赤な嘘であったことが実証されたりしています。特にSakanaAIに関しては、日本の企業はうん百億円もの資金を投入してしまいました。詐欺ですね。


AI関連の技術は、まだまだ不安定であり、確実性を欠いています。もしかしたら、ただの幻かもしれない、ということです。

ともあれ、簡単に言えば、AIの性能は、擬似ランダムな要素によって、大きく違ってくるのです!(あと、活性化関数の種類によっても。これも数種類ありますが、どれを使うかによって、結果が大きく違ってくるので戸惑います。)

これでは科学だとはいえないだろう、というのが上記の記事の意図だと思います。

つまり、AIは「擬似」ランダムに振り回される、ということです。

「幽霊の 正体見たり 枯れ尾花」のような話です。
つまり、AIが「もっともらしい答えを適当に出力しているだけではないか」ということです。

AIは「自分で考え」てなど、いないんじゃないでしょうか?

以下も読んでみてください。

※追記 AIは自発的に考えているわけではないこと


AIの多くの技術は、高度なデータベースクエリの進化として理解することができます。プロンプトはSQL文に相当し、インターネットという巨大なデータベースに対して情報を抽出する指示を出すようなものです。これにより、ユーザーが特定の情報を必要とする際に、AIが適切な情報を提供することができます。


AIが自発的に考えるという誤解を避けるためには、以下のポイントを強調することが重要です:


1. **データの解析とパターン認識**: AIは膨大なデータを解析し、そこからパターンやトレンドを見つけ出します。これは人間のように「考える」のではなく、統計的な手法に基づいて行われます。


2. **事前学習とモデル**: AIは大量のデータを使って事前に学習されたモデルを使用しています。これにより、特定のタスクに対して最適な解答を生成することができます。


3. **ルールに基づいた処理**: AIはプログラムされたルールやアルゴリズムに従って動作しており、自発的な思考や意識を持っていません


4. **人間の指示に従う**: AIは人間が入力したプロンプトや質問に基づいて動作し、その範囲内で最適な情報を提供します。


これらのポイントを説明することで、AI技術がどのように機能し、どのように利用されるべきかを正しく理解してもらえるでしょう。これが、AIに対する正しい知識と期待を持つための一助になると思います。

2025年2月2日日曜日

DeepSeekは使わない方が良い

OpenAIの「ChatGPT」などのLLM(大規模言語モデル)を使ったAIが次々と登場しているが、先日中国からDeepSeekなるAIが発表された。

これは、極めて安価に学習させることができるモデルだという。つまり、何らかのアルゴリズムを使って、今までのトレーニングの数十分の一のコストで同じことをできる、というのだ。

この触れ込みが画期的だったため、大手AIチップの販売者であるNvidiaの株価が急落してしまうほどのインパクトを与えた。

しかしながら、「なぜそのようなことが可能なのか」ということは不明である。

このDeepSeekに「あなたは誰か?」と尋ねると、「私はOpenAIが開発したAIである」と答えたそうなので、OpenAIのデータを不正に使っている可能性も否定できない、と言われている。

AIは「情報学習」によって成長するので、たくさんのデータが必要である。

その中には個人情報その他のデータが含まれる。

なので、国は「このAIを使用しないように」と勧告している。

AIの安全性が確認できないからだ。どんなデータを収集しているかわからないし、政治利用される可能性もあるからだ。