
蘋果的人工智慧技術不再只是「紙上談兵」!在今年的全球開發者大會(WWDC 2025)上,蘋果邀請全球媒體親赴美國加州總部 Apple Park,親自體驗最新的 Apple Intelligence 功能,包括通話即時翻譯、視覺辨識操作等,展現 AI 如何深入日常使用情境。
去年首度亮相的 Apple Intelligence 因為功能推出速度較慢,曾被外界質疑進展不如預期。這次蘋果在 WWDC 上不僅端出更多功能,還讓記者實地操作,試用正在測試的 iOS 26 版本。
在現場展示中,蘋果團隊用 iPhone 撥打國際電話,模擬向西班牙飯店預訂6人房。通話過程中啟用「Live Translation(即時翻譯)」,系統會自動偵測對方語言並顯示翻譯字幕,同時提供語音播放。不論對方用的是市話、Android 手機還是任何裝置都能翻譯,因為這項功能完全在 iPhone 裝置本地端運作,不依賴雲端,對話紀錄也不會外流。
除了語音翻譯,視覺辨識也更聰明了。像是朋友傳了活動海報,截圖後系統會跳出「是否加入行事曆?」的提示。如果截圖中有好幾張圖,系統會自動挑出最重要的一張做辨識。
有趣的是,這次還能透過「視覺智慧」直接連接 ChatGPT。比方說朋友傳了一張桌遊圖片問你要不要一起玩,只要截圖開啟視覺智慧,就能問 ChatGPT「這款遊戲適合我嗎?」即便沒登入帳號也能使用,不過每天有次數限制,超過之後會改用非高階模型回覆。
Apple Intelligence 的一大重點就是「無縫整合」與「強化隱私」。它不像其他 AI 一樣強調連上雲端,而是希望你在用的時候幾乎察覺不到 AI 存在,卻能默默幫你處理事情。
蘋果表示,為了讓更多開發者也能打造相同等級的智慧功能,他們將開放 Apple Intelligence 的裝置端基礎模型給開發者使用,而且不用額外支付雲端 API 的費用。
根據蘋果公布的技術細節,這款模型參數數量仍維持在約30億個,但運作效率大幅提升,特別適合用於文字總結、重寫、創意寫作、對話等場景。不過需要大量通識知識或複雜理解的聊天功能,目前還不是裝置端模型的主力。
至於哪時候使用本地端模型、哪時候用雲端,蘋果採取彈性設計——會根據實際情境決定。如果資料有送到雲端做處理,系統也會立即刪除資料,連蘋果自己也無法存取,最大程度確保用戶隱私。
蘋果也預告,Apple Intelligence 預計今年稍晚就會新增支援繁體中文,屆時台灣用戶也能體驗這些更智慧、更直覺的新功能。