Ana Sayfa Güncel Hayat 6 Ağustos 2021 5 Görüntüleme

Apple, iCloud’a yüklenen fotoğrafları tarayacak!

Çocuk istismarını engellemek ismine geliştirilen bu sistem, Apple’ın yazılımla iCloud hesaplarını tarayarak incelemesine odaklanıyor. Şayet bulut sistemde bulunan imajlar çocuk istismarı manzaralarından oluşan data tabanında bir eşleşme bulunursa isimli makamlara bildirilecek.

SİSTEM ŞİMDİDEN ELEŞTİRİLMEYE BAŞLANDI

Apple’ın uygulamaya dahil ettiği yeni sistem, rastgele bir iPhone’da çocuk istismarına ait manzara bulursa, direkt kolluk kuvvetlerine bu durumu bildirecek. Apple bu sayede, çocuk istismarının kısmen de olsa önüne geçmek istiyor. Öte yandan Apple’ın “CSAM” ismini verdiği güvenlik sistemi, tenkit oklarını da çekmeyi başardı. Çünkü bu sistemle birlikte sadece çocuk istismarını önlemekle kalmayacağı birebir vakitte şahısların saklı fotoğraflarına ulaşabileceği düşünülüyor.

Apple’ın yıl sonuna gerçek kullanıma sunacağı CSAM sistemi, ABD Ulusal Kayıp ve İstismara Uğramış Çocuklar Merkezi başta olmak üzere çeşitli çocuk güvenliği kuruluşları tarafından derlenmiş bir bilgi tabanını içerecek. Apple buna ek olarak kurulan sistem ile çocuklarına yabancılardan uygunsuz içerikler gelirse bu durumu ebeveynlere bildirecek.

Çocukların anlatamadığı birtakım durumlar olduğunda ebeveynlerin haberinin olması ismine geliştirilen sistemde Siri ve yerleşik arama uygulamaları da çocuk istismarı konusunda çok daha bilgili ve gerçek yönlendirme yapabilecek. Bu yeni periyot ise iOS 15 ile iPhone’lara gelecek. iPadOS 15 ve WatchOS 8 ile MacOS Monterey ile öbür aygıtlara da gelecek. Bu sayede çocuklara gelen uygunsuz fotoğraflar gizlenebilecek.

Milliyet

hack forum bitcoin casino siteleri
hack forum forum bahis onwin fethiye escort gaziantep escort gaziantep escort hack forum hacker sitesi bursa escort meritking meritking meritking meritking giriş izmit escort adana escort slot siteleri casibomcu.bet deneme bonusu veren siteler deneme bonusu veren siteler Tarafbet izmir escort istanbul escort marmaris escort