こんにちは!代表取締役 兼 AIサービス開発室の鈴木生雄です。ポッドキャストを更新しました。
注目ニュース
DeepSeek V4はR1以来のDeepSeekショックとなるか?CUDA神話に終止符を打つ可能性
2026年4月24日、AI企業であるDeepSeekは、同社の最新モデルとなる「DeepSeek-V4」のプレビュー版を公式にリリースしました。今回のリリースのポイントは、Huawei Ascend対応によるNVIDIAへの依存低下だと思います。これまで、生成AIの学習用途のGPUとしては、NVIDIA一強という状況で、その参入障壁になっていたのがCUDA(NVIDIAが提供するGPU向けソフトウェア開発基盤)の存在でした。なぜなら、CUDA環境で書かれた膨大なライブラリや資産が他社チップで動かないからです。
DeepSeek-V4では、ある程度CUDA向けのコードをCANN(Huawei版CUDA)向けに置き換えるなどして、学習プロセスを動かしているとみてよいと思います。一方で性能面では、DeepSeek-V4の論文 内に以下のようにあるように、DeepSeek自身が最先端フロンティアモデルに約3〜6か月遅れていることを認めています。
Nevertheless, its performance falls marginally short of GPT-5.4 and Gemini3.1-Pro, suggesting a developmental trajectory that trails state-of-the-art frontier models by approximately 3 to 6 months.
ただ、性能面の遅れ以上に、中国国内のサプライチェーンで “モデル+チップ+学習基盤” を統合できるようになりつつあるというのは、(特に米中両国にとって、)大きな出来事だと思います。
ところで、DeepSeek R1がリリースされた2025年1月20日頃は、そのインパクトからNVIDIAの株価が大きく下がりましたが、今回はDeepSeek V4のリリースではそのようなことが起こっていません。Anthropic砲でSaaS企業の株価が急落する世の中であることからすると、ちょっと不思議に思います。
対象エピソード:
- Ep.1150 超長文コンテキストとエージェント機能の融合──DeepSeekが次世代オープンモデル「V4」を発表(2026年4月30日配信)
PodcastでGemini 3.1 Flash TTSを試すも、Gemini 2.5 Pro TTSに戻す
注目ニュースと言うほどではないのですが、このPodcastではTTS(Text-To-Speech)のAPIにはGemini 2.5 Pro TTSを使っていたのですが、「傘下」を「かんか」と読んだり「小刻みに」を「きこざみに」と読んだり、まあまあな頻度で読み間違いがある状況でした。そのため、ニュースの趣旨が把握できないほど致命的ではないものの、直せるなら直したいなと思っていました。
そんな中、今月Gemini 3.1 Flash TTSが出たので今回部分的にEp.1045~Ep.1051で試してみました。しかし結果的には、Gemini 2.5 Pro TTSの方がよいと判断してEp.1052以降は元に戻すことにしました。なぜなら、Gemini 3.1 Flash TTSでは、声の質が妙に子供っぽくなったのと、さらに悪いことに、こもったよう聴こえるようになってしまったためです。
GeminiのTTS APIにはvoice_nameというパラメータがあって、30 種類のプリセット音声から好みの声を選べるようになっています。私は少しかしこまった感じがニュースキャスターらしい「Orus」という声を好んで使っていたのですが、同じ「Orus」でも全然違う声になってしまいました。いくら読み間違えが減っても、声質が心地よくなかったらリスナーの体験の質が落ちてしまいます。Googleにはぜひ改善していただきたいと思います。
対象エピソード:
- Ep.1104 Google、次世代音声生成モデル「Gemini 3.1 Flash TTS」を発表──“演出できるAI音声”が広げるコンテンツの可能性(2026年4月16日配信)
ラインナップ
- Ep.1161 激震のクラウド市場──ついにOpenAIがAWS「Bedrock」にやってくる(2026年4月30日配信)
- Ep.1160 AMDが描く「宇宙データセンター」の未来──エッジAIが変える軌道上のミッション(2026年4月30日配信)
- Ep.1159 アクセンチュアが74万人規模で「Copilot」を本格展開──AIの投資対効果を証明する過去最大の導入劇(2026年4月30日配信)
- Ep.1158 Anthropicが「Claude for Creative Work」を発表──人間の創造性に寄り添うAIの新しいカタチ(2026年4月30日配信)
- Ep.1157 Mistral AIが「Workflows」を発表──自律型AIを安全に操るエンタープライズの切り札(2026年4月30日配信)
- Ep.1156 マイクロソフトとOpenAIが提携関係を刷新──「非独占」がもたらすAI市場の新たなフェーズ(2026年4月30日配信)
- Ep.1155 AI時代の課金革命──「GitHub Copilot」が6月から従量課金制へ完全移行(2026年4月30日配信)
- Ep.1154 Metaが宇宙太陽光発電でAIを駆動へ──データセンターの電力不足を打ち破る次世代インフラ戦略(2026年4月30日配信)
- Ep.1153 メタの「Manus」買収を中国当局が阻止──加速するAI技術の囲い込みと米中覇権争い(2026年4月30日配信)
- Ep.1152 OpenAIが掲げる「5つの原則」──社会と共に歩むAIの未来図(2026年4月30日配信)
- Ep.1151 日本政府のAI「源内」がオープンソース化──官民共創で描く行政DXの新たなカタチ(2026年4月30日配信)
- Ep.1150 超長文コンテキストとエージェント機能の融合──DeepSeekが次世代オープンモデル「V4」を発表(2026年4月30日配信)
- Ep.1149 MetaとAWSが電撃提携──自律型AIを支える「Graviton」がもたらす地殻変動(2026年4月30日配信)
- Ep.1148 GoogleがAnthropicへ最大400億ドルの巨額出資──“ライバルかつ最大の顧客”を巡る新たなAI包囲網(2026年4月30日配信)
- Ep.1147 xAIが最新音声AI「Grok Voice Think Fast 1.0」を発表──電話対応を劇的に変える“自律思考型”エージェント(2026年4月30日配信)
- Ep.1146 OpenAIが「GPT-5.5」を発表──実務を自律的に完遂する真の“デジタルの同僚”誕生(2026年4月30日配信)
- Ep.1145 OpenAI、個人情報を守る「Privacy Filter」を無償公開──AIの安全な活用を後押しする新たな盾(2026年4月30日配信)
- Ep.1144 AI時代への大転換──Microsoftが創業以来初の早期退職プログラムを発表(2026年4月30日配信)
- Ep.1143 Microsoft 365が劇的進化──WordやExcelを自律操作する「エージェント型Copilot」の本格展開(2026年4月30日配信)
- Ep.1142 国産AIの逆襲──PC操作を自律化する「KARAKURI VL2」が拓く現場主導の自動化(2026年4月30日配信)
- Ep.1141 NECとAnthropicが戦略的協業──「Claude Cowork」が変える日本のビジネスシーン(2026年4月30日配信)
- Ep.1140 Google Cloudの反撃──「Gemini Enterprise Agent Platform」が切り拓く自律型AIの新たなステージ(2026年4月30日配信)
- Ep.1139 Palantirと米国農務省が3億ドルの契約──AIが守る「食料の安全保障」(2026年4月30日配信)
- Ep.1138 Google WorkspaceがもたらすAIの日常化──「Gemini」が切り拓く新しい働き方(2026年4月30日配信)
- Ep.1137 TSMCが2029年までの新ロードマップを発表──AIとスマホで分かれる半導体の未来戦略(2026年4月30日配信)
- Ep.1136 ChatGPTが米国の医師向けに無償化──「GPT-5.4」が切り拓く医療AIの最前線(2026年4月30日配信)
- Ep.1135 OpenAI、チームの業務を自律化する「workspace agents」を発表──B2B市場への本格攻勢(2026年4月30日配信)
