Apple, çocuk güvenliği hakkında yeni bilgiler verdi
Apple, güvenlik konusunda tüm aygıtlarına en yeterli muhafazayı vaat ediyor. Bugüne kadar iPhone’larıyla kullanıcılarına inanç veren üretici, yeni yazılımlarıyla bunu daha da yeterli bir hale getiriyor.
Bilindiği üzere Apple, kısa müddet evvel çocuk cinsel istismarlarına karşı yeni bir özelliğini duyurdu. CSAM ismi verilen bu özellik, iOS 15 ile birlikte desteklenen tüm modellere sunulacak. Ancak kullanıcıların çabucak hemen bu yenilik hakkında başlarında fazlaca fazla soru işareti bulunuyordu. her neyse ki Apple kısa müddet evvel gerçekleştirdiği bir toplantı da tüm merakları giderdi.
Apple’ın yeni CSAM özelliği, sırf iCloud’daki fotoğraflarda çalışacak
Apple, bugün yeni CSAM algılaması hakkında kullanıcılara kimi bilgiler verdi. Bu bağlamda iOS 15 ile birlikte sunulacak olan bu özellik, sadece iCloud Fotoğrafları’nda depolanan fotoğraflarda geçerli olacak. Fakat firma ilerleyen vakit içinderda bunun görüntüler ortasında olabileceğinin sinyallerini verdi.
Öte yandan ABD’li üretici, CSAM özelliğinin nasıl devre dışı bırakıldığına da bir daha dikkat çekti. Bu bağlamda kullanıcılar yeni güvenlik özelliğini kullanmayı tercih etmez ise, iCloud Fotoğraflar’ı devre dışı bırakması yetecektir. bu biçimdece uygulama art planda çalışmaz ve rastgele bir bilgilerinize de erişmez.
Sunucu taraflı çalışan bu özellik, alıcıya gelen fotoğrafları otomatik olarak tarayarak denetleyecek. Şayet burada çocuk istismarını tetikleyen bir görsel olduğunda o fotoğraf otomatik olarak bulanıklaştırılacak ve kullanıcıya ikaz olarak bildirilecek.
Apple’a göre CSAM algılama sistemi, öteki şirketler tarafınca kullanılan sunucu taraflı uygulamalardan fazlaca daha uygun. Şirket öteki uygulamaların her fotoğrafı taradığını öne sürerken, kendi algılama sistemlerinin ise yalnızca CSAM manzaraları içeren fotoğraflarda çalışacağını söz etti.
Apple, güvenlik konusunda tüm aygıtlarına en yeterli muhafazayı vaat ediyor. Bugüne kadar iPhone’larıyla kullanıcılarına inanç veren üretici, yeni yazılımlarıyla bunu daha da yeterli bir hale getiriyor.
Bilindiği üzere Apple, kısa müddet evvel çocuk cinsel istismarlarına karşı yeni bir özelliğini duyurdu. CSAM ismi verilen bu özellik, iOS 15 ile birlikte desteklenen tüm modellere sunulacak. Ancak kullanıcıların çabucak hemen bu yenilik hakkında başlarında fazlaca fazla soru işareti bulunuyordu. her neyse ki Apple kısa müddet evvel gerçekleştirdiği bir toplantı da tüm merakları giderdi.
Apple’ın yeni CSAM özelliği, sırf iCloud’daki fotoğraflarda çalışacak
Apple, bugün yeni CSAM algılaması hakkında kullanıcılara kimi bilgiler verdi. Bu bağlamda iOS 15 ile birlikte sunulacak olan bu özellik, sadece iCloud Fotoğrafları’nda depolanan fotoğraflarda geçerli olacak. Fakat firma ilerleyen vakit içinderda bunun görüntüler ortasında olabileceğinin sinyallerini verdi.
Öte yandan ABD’li üretici, CSAM özelliğinin nasıl devre dışı bırakıldığına da bir daha dikkat çekti. Bu bağlamda kullanıcılar yeni güvenlik özelliğini kullanmayı tercih etmez ise, iCloud Fotoğraflar’ı devre dışı bırakması yetecektir. bu biçimdece uygulama art planda çalışmaz ve rastgele bir bilgilerinize de erişmez.
Sunucu taraflı çalışan bu özellik, alıcıya gelen fotoğrafları otomatik olarak tarayarak denetleyecek. Şayet burada çocuk istismarını tetikleyen bir görsel olduğunda o fotoğraf otomatik olarak bulanıklaştırılacak ve kullanıcıya ikaz olarak bildirilecek.
Apple’a göre CSAM algılama sistemi, öteki şirketler tarafınca kullanılan sunucu taraflı uygulamalardan fazlaca daha uygun. Şirket öteki uygulamaların her fotoğrafı taradığını öne sürerken, kendi algılama sistemlerinin ise yalnızca CSAM manzaraları içeren fotoğraflarda çalışacağını söz etti.