Apple-Gemini ortaklığı, Siri ve iPhone’larda yapay zeka deneyimlerini nasıl etkileyeceği sorusunu öne çıkarıyor. Kullanıcılar, bu işbirliğinin günlük kullanımda neleri değiştireceğini merak ediyor.
Apple, Siri’nin yeniden tasarlanmasında ve iPhone ile Mac’lerdeki yapay zeka yeteneklerinin temelinde Google’ın Gemini modellerini kullanacağını resmen açıkladı. Duyuru kısa bir ortak açıklamayla yapıldı fakat etkisi geniş olarak değerlendiriliyor.
Apple, “Bu modeller, bu yıl gelecek daha kişiselleştirilmiş Siri dahil olmak üzere gelecekteki Apple Intelligence özelliklerini destekleyecek” ifadelerini kullandı. Bu söylem, entegrasyonun Siri’nin yetenekleri üzerinde doğrudan etkisi olacağını işaret ediyor.
Apple’ın daha önce Anthropic’in Claude’u ve OpenAI’ın GPT modellerini test ettiği biliniyordu; ancak şirket sonunda Google’ı tercih etti. Uzmanlar, Gemini’nin Apple ekosistemine dolaylı olarak entegrasyonunun Siri’de önemli bir gelişme sağlayabileceğini belirtiyor.
Gizlilik kaygıları da öne çıkıyor; yapay zeka asistanları e‑posta, takvim, fotoğraflar ve dosyalar gibi hassas verilere erişebiliyor. Apple, verilerin Google’a aktarılmayacağını ve gizliliğin korunacağını vurguladı.
Apple şu açıklamayı yaptı: “Apple Intelligence, Apple aygıtlarında ve Private Cloud Compute üzerinde çalışmaya devam edecek ve sektör lideri gizlilik standartlarını koruyacak.” Şirkete göre Gemini yalnızca bir “zeka motoru” olarak kullanılacak ve kullanıcı verileri Private Cloud Compute içinde şifrelenecek, işlendiğinde silinecek; Google’ın bu verilere erişimi olmayacak.
Bugüne kadar Siri, karmaşık görevlerde sınırlı kalıyordu ve bazı sorular ChatGPT’ye yönlendiriliyordu. Android tarafında Gemini, uygulamalar arası eylemleri daha akıcı şekilde yerine getirebiliyordu; örneğin, belirli bir kişiye WhatsApp üzerinden bir şey sorma gibi görevler Android’de daha entegre hale geliyordu.
Apple Insider’a göre Apple, Gemini’yi doğrudan iPhone’lara taşımayacak. Bunun yerine Google’ın araçlarını, “Apple Foundation Models” adı verilen kendi temel modellerini geliştirmek ve eğitmek için kullanacak.
Bu temel modeller, özetleme, yazma araçları, görsel üretimi ve uygulamalar arası eylemler gibi Apple Intelligence özelliklerinin altyapısını oluşturacak. Apple, kullanıcı deneyiminin tamamının kendisinde kalacağını ve Gemini’nin arka planda modellerin eğitilmesine yardımcı olacağını belirtiyor.
İddialara göre Apple, işbirliği kapsamında Google’a yıllık yaklaşık 1 milyar dolar ödeyecek; Google kullanıcı verisi elde etmeyecek. Apple ise uzun vadede kendi 1 trilyon parametreli modelini geliştirmeyi hedefliyor.
Bu anlaşma, ChatGPT entegrasyonunun Apple Intelligence içindeki rolünü ortadan kaldırmıyor ve ChatGPT entegrasyonunun devam etmesi bekleniyor. Gemini’nin Siri üzerinden doğrudan bir seçenek olarak sunulup sunulmayacağı ise henüz netleşmiş değil.
Apple yönetimine göre büyük dil modelleri (LLM’ler) zamanla emtia hâline gelecek; şirket farklılaşmayı donanım, yazılım ve hizmet entegrasyonunda yaratmayı amaçlıyor. Bu stratejinin ilk somut sonuçlarının iOS 26.4 ile birlikte bahar aylarında ortaya çıkması bekleniyor.
Sonuç olarak Apple-Gemini ortaklığı, Siri’de belirgin bir değişiklik potansiyeli taşıyor ancak gizlilik ve entegrasyon detayları kullanıcılar için belirleyici olacak. Apple’ın planladığı iyileştirmeler gerçekleşirse Siri, daha doğal ve daha kullanışlı hale gelebilir.
Bir Cevap Yaz





![Telegram-e1521786932288[1]](https://www.donanimforum.com/wp-content/uploads/2020/05/Telegram-e15217869322881-120x90.jpg)













