StableDiffusionは、macOS 13.1の新しい最適化のおかげで、Apple Silicon Macで18秒未満で画像を生成できるようになりましたc

StableDiffusionは、macOS 13.1の新しい最適化のおかげで、Apple Silicon Macで18秒未満で画像を生成できるようになりましたc

Appleは自社の機械学習ブログで、StableDiffusionプロジェクトへの強力なサポートを発表しました。これには、リリースされたばかりのmacOS 13.1ベータ4とiOS 16.2ベータ4のアップデートが含まれており、Apple Siliconチップ上でこれらのモデルを実行する際のパフォーマンスが向上しています。

Apple は、ソースの StableDiffusion モデルをネイティブ Core ML 形式に変換する方法を示す詳細なドキュメントとサンプル コードも公開しました。

この発表は、Apple が最近登場した AI 画像ジェネレーターに対して示した最大の公式支持だ。

まとめると、機械学習に基づく画像生成技術は、DALL-Eモデルの驚くべき成果によって注目を集めました。これらのAI画像生成器は、テキスト文字列をプロンプトとして受け取り、要求された画像を作成しようとします。

StableDiffusionと呼ばれるバリアントは2022年8月に開始され、すでに多くのコミュニティ投資が行われています。

Apple OS リリースでの新しいハードウェア最適化のおかげで、Core ML StableDiffusion モデルは、M シリーズ チップに搭載されている Neural Engine と Apple GPU アーキテクチャを最大限に活用します。

これにより、驚くほど高速なジェネレータが実現します。Appleによると、ベースラインのM2 MacBook Airは、50回の反復処理によるStableDiffusionモデルを使用して18秒未満で画像を生成できます。M1 iPad Proでも同じタスクを30秒未満で実行できます。

Appleは、この取り組みによって開発者がStableDiffusionをアプリに統合し、バックエンドのクラウドサービスに依存せずにクライアント上で実行するよう促されることを期待しています。クラウド実装とは異なり、デバイス上での実行は「無料」でプライバシーも保護されます。

www.sweimm.com を Google ニュース フィードに追加します。 

FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。

グラフィカルユーザーインターフェース、ウェブサイト