https://x.com/AaronOtsuka/status/1883730017458483423

 

 

 

 

 

 

 

 

アルゴリズムの改善:DeepSeekや同様の技術が、同等またはそれ以上のパフォーマンスを実現するために必要な計算リソースを少なくするアルゴリズムを開発すれば、これは同じ結果を得るために低性能のGPUでも十分であることを意味し、高性能GPUの需要を減少させる可能性があります。

モデル圧縮:モデルを圧縮しつつ性能を維持する技術が進歩すれば、GPUメモリや処理能力の大量な需要が減ることが考えられます。

専用ハードウェア:

ASICやFPGA:DeepSeekが特定のタスクに対してASIC(アプリケーション特化集積回路)やFPGA(フィールドプログラマブルゲートアレイ)が適しているアプリケーションを増やす場合、汎用GPUよりエネルギー効率の良いこれらの装置への需要が増え、GPUから需要がシフトする可能性があります。

クラウドとエッジコンピューティング:
分散計算:DeepSeekが計算タスクを多数の低性能デバイスに効果的に分散させる能力を高める場合、データセンターでの高性能GPUへの依存が減る可能性があります。

エッジAI:モデルがスマートフォンやIoTデバイスなどに効率的にデプロイできるようになると、クラウドでの大規模なGPU処理の必要性が減少する可能性があります。

データ処理のオーバーヘッドの削減:
データ効率:データの前処理や特徴抽出方法が改善されれば、GPUで処理する必要のあるデータ量が減り、結果として少ない、または低性能のGPUで済むかもしれません。

ソフトウェアの最適化:
既存ハードウェアの最適活用:ソフトウェアの最適化により、既存のハードウェアがアップグレードせずに良好に機能する場合、GPUのアップグレードサイクルが遅れる可能性があります。

代替技術:
量子コンピューティング:まだ初期段階ではありますが、DeepSeekが特定のAIタスクに量子コンピューティングを活用し始めると、最終的には従来のGPUへの依存が減る可能性があります。

ただし、これらのシナリオは以下の要因に依存しています:

新技術や方法の採用率。
実行されるAIタスクの種類(一部は依然として重いGPU使用を必要とするかもしれません)。
市場におけるコスト、パフォーマンス、エネルギー効率のバランス。

 

 

 

 

 

 

>> 副業として「人間レベル」のAIを構築したいと考え、パートナーに提案するが、当初は懐疑的な反応を示す

>> 2021年に10,000個のH800チップを購入し、トップヘッジファンド社員を招く(全員がファンドのためにNvidia GPUから大量のデータを抽出する経験を持っている)

>> 2023年にDeepSeekを立ち上げ、中国のトップ大学(北京、清華、北京航空航天)から数十人の博士号取得者を雇用する

中国ではバイトダンスに次ぐ高額な給与を技術人材に支払っている。DeepSeekを「地元」をリードする企業にしたいと考えている。

米国の輸出規制により、DeepSeekチームは創造性を発揮せざるを得なくなり、LLMモデル(V3、r1)をOpenAI、Anthropic、Gemini、Grok、LLamaなどと競争力のあるものにするための新しいトレーニング方法を考案した。コストは約1/20である

>> トレーニングコストは正確には比較できないが、新しい手法と明らかな効率性の向上(他のモデルのコピーに関する疑問、おそらく話せないであろうより大きなH-100クラスタ、および/またはCCPサポート)

>> 手法をオープンソース化し、公開(r1の推論論文には200人以上の著者がいる)

>> DeepSeekがApp Storeのトップに躍り出た

 

 

 

◆ AIによるディストピア実現の具体的メカニズム:

 1. 監視国家型ディストピア:AIによる完全な社会制御
→ AIの具体的な役割:
- 高度な顔認識で市民を常時追跡
- 通信内容の自動分析による反体制分子の特定
- SNSの感情分析による不満分子の事前検出
- プロパガンダの最適化による世論操作
※ AIの能力向上により、人間の監視者なしでも完全な管理社会が実現可能に

 2. 市場暴走型ディストピア:AIによる市場の暴走
→ AIの具体的な役割:
- 株取引AIによる瞬時の市場操作
- 労働市場でのAI最適化による賃金抑制
- 企業のAI化による極端な効率追求
- 消費者行動の完全予測による市場支配
※ AIシステム同士の競争が、人間の制御を超えて市場を歪める

 3. 価値観凍結型ディストピア:AIによる価値観の固定化
→ AIの具体的な役割:
- 教育AIによる統一的な価値観の注入
- メディアAIによる情報の選択的提供
- SNSのAIによる同調圧力の強化
- 異なる価値観の自動フィルタリング
※ AIが社会の「正しさ」を学習・強化し、多様性を排除

 ■ AIがディストピアを「固定化」する理由:
1. 自己強化メカニズム
- AIが自己の判断基準を継続的に強化
- 誤った方向への進化を自ら修正できない

2. スケール効果
- AIシステムが瞬時に世界規模で展開
- 局所的な抵抗や変更が困難

3. 制御困難性
- AIの決定プロセスが人間には理解不能
- 一度確立したシステムの修正が困難

 ⇒ 共通する危険性:
AIは、それぞれのディストピアを
1. より完全に(監視・制御の完全化)
2. より早く(処理速度の高速化)
3. より広く(グローバルな展開)
実現可能にする。

参考文献:
The Precipice: Existential Risk and the Future of Humanity
実存的リスクと人類の未来(2020)

 

 

 

アムステルダム大学の研究者らが、この新しい抵抗の形を分析している。

---

デジタルプラットフォームが社会に浸透する中、アルゴリズムへの抵抗は日常的な現象となっている。研究者らは、この抵抗を2つの観点から分析した。

 ◆ アルゴリズムに「対して」の抵抗
- AIシステムの問題点を指摘する政治活動
- アルゴリズムの偏りを可視化するアート作品
- プラットフォームの権力構造への批判的研究

 ◆ アルゴリズムを「通して」の抵抗
- プラットフォームの機能を戦略的に活用
- アルゴリズムを武器として転用
- システムの抜け穴を見つけて活用

→ 特筆すべきは、後者の「通しての」抵抗が、必ずしも政治的な意識を持たない一般ユーザーによっても日常的に行われている点である。例えば:

- SNSのエンゲージメント操作
- プラットフォームの推薦システムの意図的な誤用
- アルゴリズムの判定基準の回避

※ これらの行為は、マレーシアの農民による 「日常的な抵抗」(弱者の武器) に類似している。つまり、明確な政治的意図を持たない、生存戦略としての性質を持つ。

この研究は、デジタルプラットフォーム時代における新たな力関係を示唆している:

1. プラットフォームの力は完全ではない
2. ユーザーは常に何らかの抵抗の余地を持つ
3. 抵抗は必ずしも意識的・組織的である必要はない

-

本書の最も革新的な点は、プラットフォームの力に対する「下からの」視点を提供していることである。

著者たちは、人々が完全に無力ではないという前提に立っている。また、抵抗や適応の形態は必ずしも革命的な変革をもたらすものではないが、それでも重要な意味を持つという認識を示している。

本書の最も重要な貢献の一つは、 プラットフォーム社会を単なる支配-従属の関係としてではなく、複雑な「戦場」 として描き出したことだろう。

-

本書は、理論的枠組みの提示から始まり、3つの主要な領域(ギグワーク、文化産業、政治活動)での具体的な事例研究を通じて議論を展開している。これらの事例を通じて、アルゴリズムに対する人々の「戦術的」および「戦略的」な対応を分析し、最終的に プラットフォーム社会における新たな階級形成 の可能性を論じている。