Appleは現在、内部で使用されるためのLLMsベースのチャットボットをテストしており、要約、翻訳、その他のタスクを実行します。しかし、同社はAppleのAGIベースのチャットボットを近い将来リリースする予定はありません。なぜなら、明確な戦略がないからです。現在、Appleはエコシステム内のユースケースシナリオを理解しようとしています。
AppleGPTとは何ですか?
他の巨大なLLMベースのチャットボットと同様に、AppleGPTは膨大なデータセットで訓練されました。Appleは静かに、OpenAI、Google DeepMind、Meta AIなどのAGIの業界リーダーに対抗するためのフレームワークを構築しました。AppleはまだApple GPTの内部コードネームであるAjaxを公式に発表していませんが、内部ではApple GPTとして一般的に知られています。
AppleのCEOであるTim Cookは、AIの研究開発に226億ドルを投資し、今年は30億ドルを費やしたと述べています。しかし、現時点では、AppleのAIはWWDC 23の間、一度もAI用語を使用していないため、OpenAI、MetaAI、Google DeepMindにはまだ及びません。
Appleは人工汎用知能の専門家を募集しています。
最近、Netflix、Amazon、Disneyなどの企業がAGIの専門家を採用し、求人リストを掲載しているのを見ました。Appleも6月から8月にかけて、主にエンジニアと科学者のために数十の求人を世界中の複数のAppleオフィスに掲載しました。これらの求人広告はAGIに焦点を当てるだけでなく、機械学習の専門家を求めて混合現実感にも取り組んでいます。
同社は既にiPhoneとiPadのスタッフを再編成しており、一部のスタッフはAppleの人工汎用知能に取り組んでいます。これらの役割は、Appleのカリフォルニア、シアトル、パリ、北京のオフィス全体で作られており、LLMsで動作する大規模な言語モデルに取り組んでいます。また、Machine Intelligence、Neural Design(MIND)グループは、パリのラボでLLMsに取り組むための人員を募集しており、Crash Detectionなどの既存のApple AIを統一するための作業を行っています。多くのAI企業はモバイルプラットフォームであるiOSを使用しているため、同社はクラウドではなくモバイル上でシームレスに動作することを保証できます。
私はChatGPTがAppleで数ヶ月間禁止されている/制限されているソフトウェアリストに載っていると信じています。明らかに、今日iOSでのChatGPTのリリースはこれを関連付けます。
— Mark Gurman (@markgurman)
彼らのAIはiPhoneの販売がAppleの主要な事業であるため、モバイル上で最も優れたパフォーマンスを発揮する必要があります。同社はまた、次世代のMLベースのエクスペリエンスを最もプライバシー重視の方法で構築するという課題に直面します。ChatGPT、Bard、Bing AIなどの他のAGIツールは、自身のAGIモデルを改善するためにデータを収集・保存しています。さらに、彼らはユーザーがAGIモデルをどのように使用しているかの人間のレビューも行っています。
報道によると、最近の投資家会議でティム・クックはジェネレーティブAIに興味を持っていることを確認しました。Appleの求人情報も同様のことを確認しており、Appleは機械学習を知り、ジェネレーティブAIの議論に興味を持つ人材を求めており、それによって彼らの製品にAGIを理解し実行することができます。AIに関しては、同社はモバイルデバイス上で複雑な機械学習モデルを実行することに特化したシアトル拠点のAIスタートアップXnorを買収しました。
類似点があるとはいえ、チャットボットはおそらくOpenAI ChatGPTとはかなり異なるものになるわけではありません。おそらく、この機能はAppleの製品とサービスでのみ利用可能になるでしょう。ただし、モデルはジェネレーティブAIであり、現在は社内の従業員向けのツールとして使用されており、ChatGPTに類似したものに取り組んでいるわけではありません。同社はリリースされることを意図していない多くの内部開発ツールを使用しており、Windows Hidden Settingsを有効にするためにMicrosoftのステージングツールを使用しています。
AppleはSiriとAIを統合するためのテストを行っています。
最近の報告によると、GoogleはGoogleアシスタントにAGIを統合する計画を立てており、AppleのエンジニアもSiriのLLMコンセプトのテストを行っています。GoogleとAppleに先駆けて、MicrosoftはWindows Insider PreviewでCortanaをWindows 11から削除し、Windows CoPilotに注力しています。このコードネームはBobcatであり、言語生成機能をSiriにもたらします。
このためのフレームワークは「
Siri Natural Language Generation
」と呼ばれており、開発チームとのテストを通じて、Appleは言語生成がどのように活用されるかを探求しています。一部の報告では、ジョークを言ったり、タイマーに使用したりすることができるとされています。現時点では、Siriの自然言語生成はテンプレートに基づいており、何も生成しません。これにより、エンジニアリングチームにいくつかの課題が生じ、Siriが過去10年間でどれだけ改善されたかが示されています。
AppleはAGIを搭載したSiriを開発していますが、AGIをAppleのSiriに統合する前に、現在はSiriの基盤となる問題を修正しています。短期的な目標は、特にiPhoneでAIを動作させることです。その後、LLMをより高度にし、写真やメールなどの他のサービスにAIの機能を拡張することができます。
さらに、最近のtvOS 16.4ファームウェアにはAIの統合も示されています。ただし、最新のApple GPTがエコシステムにもたらす能力はまだ明確ではありません。tvOSは、Apple TVやHomePodへのアクセスを備えたエコシステムに溶け込むことができる最初のデバイスの1つのようです。ただし、コードからは他のデバイス、iPhoneやiPad、Macなども示唆されています。
この機能はまだ有効になっていません、またはこの隠し機能は有効にできないため、将来のことはまだわかっていません。一方、AppleはMixed Realityヘッドセットにも注力しており、来年の終わりまでに発売される予定です。開発を促進するために、Appleはより多くの機械学習の専門家を採用しています。Apple以外にも、Samsungなどの他の企業も独自の人工知能のバージョンに取り組んでいますが、まだ何も確認されておらず、ニュースも出ていません。ただし、最近多くのNVIDIA GPUを購入し、SamsungのAGIに焦点を当てるためにGPUリソースを移動させたことは報告されています。