خلال مكالمة نتائج الربع المالي الأول لعام 2026، قال تيم كوك إن اعتماد Apple Intelligence يسير بسرعة، مؤكدًا أن “معظم المستخدمين على أجهزة آيفون المدعومة يستخدمون مزايا Apple Intelligence بشكل فعّال”، ثم كشف أن الميزة الأكثر شعبية حاليًا هي Visual Intelligence.
ما هي الميزة الأكثر استخدامًا؟
كوك أوضح أن Visual Intelligence – أي ميزة فهم وتحليل الصور داخل النظام (مثل التعرف على محتوى الصور، استخراج النصوص، التعرف على المعالم والأشياء في الصورة وإظهار معلومات عنها) – هي أكثر خصائص Apple Intelligence استخدامًا حتى الآن.
هذه الميزة مدمجة مباشرة في تطبيق الصور والتطبيقات الأخرى، وتستفيد من المعالجة على الجهاز بحيث تقدّم معلومات وسياقًا بصريًا من دون إرسال كل شيء إلى السحابة، وهو ما يعكس تركيز أبل على الخصوصية في عرضها لمزايا الذكاء الاصطناعي.
مستوى تبنّي Apple Intelligence
خلال المكالمة، شدد كوك على أن “الأغلبية” من مستخدمي أجهزة iPhone الداعمة (أي الطرازات التي حصلت على iOS 18 مع دعم Apple Intelligence) يستخدمون بالفعل واحدة أو أكثر من هذه المزايا في حياتهم اليومية، سواء في الترجمة الفورية، أو توليد النصوص، أو المساعدات البصرية.
كوك أشار أيضًا إلى أن الشركة تعمل على توسيع Apple Intelligence ليشمل مزايا جديدة في التطبيقات التي يحبها الناس أصلًا، في إشارة واضحة إلى أن موجة ثانية من الخصائص ستُعلن خلال 2026، مع تركيز خاص على تطوير سيري بالشراكة مع نماذج Google Gemini عبر بنية Private Cloud Compute.
لماذا تراهن أبل على هذه الميزة بالذات؟
من منظور أبل، Visual Intelligence تمثل نقطة تقاطع مثالية بين ثلاثة عناصر: الاستخدام اليومي (كل شخص يفتح تطبيق الصور بشكل متكرر)، وقدرات الذكاء الاصطناعي التوليدي/التحليلي، وحجّة الخصوصية التي تروّج لها الشركة.
لذلك ليس مفاجئًا أن تكون الميزة الأكثر شعبية؛ فهي لا تتطلب من المستخدم “تغيّر سلوكه” كما يحدث مع بعض أدوات الكتابة الذكية، بل تظهر تلقائيًا فوق شيء يفعله أصلًا: فتح صورة والضغط للحصول على مزيد من المعلومات عنها.

