Appleが「Apple Intelligence」を発表

 

昨日6月10日、Appleから「Apple Intelligence」なるものの発表がありました。

昨今「GPT-4o」で音声対話機能が大幅に向上したこともあり、AIはほぼ間違いなくマルチモーダルに向かっていくことを考えると、カメラ機能と音声マイクを持つスマホ環境が生成AIの普及には欠かせません。
https://news.yahoo.co.jp/articles/b3e61d9d8e5e8aa47fdc94b11e6097fe9e7010f3

今回の「Apple Intelligence」の発表はまさにそれに順当な動きではないでしょうか。

Androidを握っているGoogleが持つGeminiにはこれまで一定の優位性があったように思いますが、OpenAIとAppleが組んだことでそこもかなり変わったように思います。

今回の件は発表元のAppleにとってのメリットよりも、マルチモーダルのセンサーであるカメラと音声デバイスプラットフォームとを手に入れた、OpenAIの方がメリットが大きいと考えることもできるのではないでしょうか。

 

今まで切り離されたツールとして、”対象物” のように我々が使用していた生成AIですが、今後はデバイスと融合し一体化され、我々が必要以上に意識しなくても自然と使われるようになっていくようです。

“「便利ツール」の時代から「パートナー」へ”

私たちが今スマホを手放せなくなっているように、生成AIも必需品、いや必需”器官”として生活に溶け込んでくるのかもしれません。

 

今回は以下の公式の記事から、気になった部分をピックアップしていきます。

https://www.apple.com/jp/newsroom/2024/06/introducing-apple-intelligence-for-iphone-ipad-and-mac/

◼︎言語を理解し、言葉を作成する新しい機能

メールやメモなど、文章作成を行うあらゆる場面で、文章の書き直し、校正、要約を行ってくれるとのことです。

また、記述形式の変更ができ、すでにあるテキストを選択するとそれを読みやすい段落、箇条書き、表、リストなどの形にまとめることができるようです。

 

◼︎「優先通知」という新しいオプション

AIが、重要な通知か否かを判断し、重要なものだけは表示させるという全く新しい集中モードが実装されるようです。

まさに「痒いところに手が届く」機能だと思います。

 

◼︎画像作成機能「Image Playground」

画像作成の機能が、メッセージなどのアプリに直接組み込まれるようです。
従来のようにプロンプトによる生成が可能で、また、写真ライブラリから生成画像に含める人物を指定できるとのことです。

自分が生成する画像に友人を登場させることができるのは、今までになかった機能ですね。

 

◼︎写真の新しい機能

写真やビデオを検索するとき、
「マヤが絞り染めTシャツを着てスケートボードをしている」
「顔にステッカーが付いているケイティ」といった自然な言葉によって検索が可能になるようです。

また、新しいクリーンアップツールによって、写真の背景にある不要な対象物を特定して削除できます。

 

◼︎「Siri」の能力が向上

画面認識により、Siriがユーザーの操作履歴やコンテンツを理解するようです。
時間が経つにつれて、具体的なアクションを実行できるようになります。

例)
友人が新しい住所を送ってきた時に、「この住所を彼の連絡先カードに追加して」と指示する
「友人が勧めてくれた曲を再生して」と言えば、メッセージやメールからそのやりとりを探して再生してくれる

 

◼︎Appleのプラットフォーム全体にChatGPTを統合

Appleデバイス (まずは iOS 18、iPadOS 18、macOS Sequoia内で) から直接ChatGPTにアクセスできるようになります。
また、Siriも必要に応じてChatGPTにアクセスし情報を返してくれるようです。
今までアプリ等で行っていた、GPTへのアクセスが、デバイスやOSで直接かつナチュラルに使用できるようになりますね。

 

まとめ

いかがでしたでしょうか。

今後もトレンドを追い、気になることは記事にしていきますので何卒よろしくお願いいたします。
お読みいただきありがとうございました!