Çocuk cinsel istismarı materyali (CSAM) mağdurları, Apple’a, planladığı cihaz tarama aracını iptal ettiği için 1,2 milyar dolar tazminat davası açtı. Apple, birçok kullanıcının, baskıcı yönetimlerin bu teknolojiyi kötüye kullanma riski üzerine uyarılarının ardından, başlangıçta CSAM tarama aracını terk etmek zorunda kalmıştı. Şirketin karşı karşıya olduğu bu dava, sadece 1,2 milyar doları aşan bir ceza ile kalmayıp, aynı zamanda Apple’ın, iCloud’da CSAM materyallerini tespit etmek ve raporlamak için bu planı yeniden uygulamaya koyması talep edilebilir.
Apple, bu ürününü iptal ettiği için tazminat ödeyebilir!
Eğer mahkeme, davacıların lehine karar verirse, Apple, iCloud’daki CSAM’leri tespit edip kaldırma, yayılmalarını engelleyecek politikalar geliştirme zorunluluğuna girebilir. Ayrıca, Apple’ın CSAM tespiti konusunda gereğinden az raporlama yaptığı ve çocuk tacizcilerinin, iCloud’u diğer büyük teknoloji firmalarının aksine daha güvenli bir yer olarak kullandıkları iddia ediliyor. 2023’te Apple, yalnızca 267 CSAM olayı bildirirken, diğer büyük teknoloji şirketleri 32 milyonun üzerinde rapor göndermişti. Mağdurlar, Apple’ın bu konuda daha fazla adım atmazsa, yapay zeka kullanılarak raporlanmayan CSAM miktarının hızla artacağı konusunda endişe ediyorlar.
Apple, bu suçlamalarla ilgili olarak, çocuk istismarı materyalinin kabul edilemez olduğunu belirterek, bu tür suçlarla mücadele etme konusunda kararlı olduklarını ifade etti. Şirket, gizlilik ve güvenliği ihlal etmeden bu suçlarla mücadele etmek için aktif şekilde yenilikler geliştirdiklerini belirtti. Örneğin, “İletişim Güvenliği” gibi özelliklerle, çocukların çıplaklık içeren içerik alması veya göndermesi durumunda uyarı alması sağlanarak, çocuk cinsel istismarı zincirinin kırılmasına yardımcı olmayı amaçladıklarını belirttiler.
iPhone, 2026’da yapay zeka özellikleriyle donanacak!
Ancak, bu davanın, çocuk cinsel istismarı suçlarının tespiti ile baskıcı yönetimlerin bu teknolojiyi kötüye kullanma riski arasında bir çıkmaz oluşturduğu düşünülüyor. Apple’ın başlangıçta iCloud fotoğraflarını taramak gibi standart bir uygulamayı benimsemesi durumunda, bu sorunun hiç gündeme gelmeyeceği düşünülüyor. Şirketin, daha gizlilik odaklı bir çözüm geliştirme çabası ise tartışmalara yol açtı. Apple, mahkemeye karar vermesi durumunda, gelecekteki bir hükümetin bu teknolojiyi kötüye kullanması halinde, bu durumu savunmak adına bir dayanağa sahip olabilir.