DOLAR

9,2865$%0.26

EURO

10,7622%0.12

STERLİN

12,7601£%0.05

GRAM ALTIN

526,50%0,04

ÇEYREK ALTIN

8.393,68%-1,03

TAM ALTIN

8.393,68%0,35

ONS

1.762,54%-0,21

BİST100

1.414,34%0,34

BİTCOİN

฿%

LİTECOİN

Ł%

ETHEREUM

Ξ%

RİPPLE

%

TETHER

$%

Öğle Vakti a 12:54
İstanbul PARÇALI BULUTLU 15°
  • Adana
  • Adıyaman
  • Afyonkarahisar
  • Ağrı
  • Amasya
  • Ankara
  • Antalya
  • Artvin
  • Aydın
  • Balıkesir
  • Bilecik
  • Bingöl
  • Bitlis
  • Bolu
  • Burdur
  • Bursa
  • Çanakkale
  • Çankırı
  • Çorum
  • Denizli
  • Diyarbakır
  • Edirne
  • Elazığ
  • Erzincan
  • Erzurum
  • Eskişehir
  • Gaziantep
  • Giresun
  • Gümüşhane
  • Hakkâri
  • Hatay
  • Isparta
  • Mersin
  • istanbul
  • izmir
  • Kars
  • Kastamonu
  • Kayseri
  • Kırklareli
  • Kırşehir
  • Kocaeli
  • Konya
  • Kütahya
  • Malatya
  • Manisa
  • Kahramanmaraş
  • Mardin
  • Muğla
  • Muş
  • Nevşehir
  • Niğde
  • Ordu
  • Rize
  • Sakarya
  • Samsun
  • Siirt
  • Sinop
  • Sivas
  • Tekirdağ
  • Tokat
  • Trabzon
  • Tunceli
  • Şanlıurfa
  • Uşak
  • Van
  • Yozgat
  • Zonguldak
  • Aksaray
  • Bayburt
  • Karaman
  • Kırıkkale
  • Batman
  • Şırnak
  • Bartın
  • Ardahan
  • Iğdır
  • Yalova
  • Karabük
  • Kilis
  • Osmaniye
  • Düzce
a
X

Apple’dan yeni açıklama: iPhone’larda taranan fotoğraflar hükümetlerle paylaşılmayacak

Apple, geçtiğimiz günlerde detayları ortaya çıkan ve 'çocuklar için sakıncalı olabilecek içeriklerin taranmasını' kapsayan CSAM isimli teknolojiyle alakalı olarak yeni bir duyuru yaptı. Kullanıcıların en çok merak ettiği hususların başında gelen 'kişisel verilerin paylaşılmasının' mümkün olmadığını bildirdi.

Apple, yeni iOS ve iPadOS sürümleriyle birlikte hem iCloud hem de iMessage servislerinde çocuklar için sakıncalı olabilecek fotoğrafları tarayarak analiz edecek. Gerektiği durumlarda gönderici veya alıcıya dair bilgiler kolluk kuvvetleriyle paylaşılacak.

Geçtiğimiz dönemlerde ‘çocuk istismarını önlemek’ amacıyla çeşitli önlemler alınacağını bildiren Apple, yapay zekayı temel alan bu çalışmayla istismar görüntülerini tespit etmeye odaklanıyor.

Apple'ın CSAM adını verdiği bu sistem, makine öğrenimiyle birlikte fotoğraflar arasında bir tarama gerçekleştiriyor. Apple’ın CSAM adını verdiği bu sistem, makine öğrenimiyle birlikte fotoğraflar arasında bir tarama gerçekleştiriyor.

Gizlilik özelliği, iPhone ya da iCloud’da depolanan fotoğrafların taranmasını da baz alıyor. Apple’ın yeni servisi, veri tabanındaki istismar fotoğraflarının kıyaslanmasını temel alıyor. Şüpheli fotoğraflar işaretleniyor ve daha sonrasında gereken işlemler yapılıyor. REKLAM Kullanıcı verileri hükümetlerle paylaşılmayacak.

CSAM olarak isimlendirilen bu sistemde verilerin hükümetlerle paylaşılıp paylaşılmayacağı ise merak konusuydu. Apple, yeni bir açıklama yaparak sebebi fark etmeksizin kullanıcı verilerinin hükümetlerle paylaşımının söz konusu olmayacağı duyuruldu.

Burada asıl noktada kullanıcı verilerinin Apple elinde saklanıyor olması soru işaretlerinin oluşmasına neden oluyor. Apple ise konuyla alakalı olarak şu açıklamayı yapıyor:

    Bu sistemle hükümetlere yardım edilmeyecek. CSAM sadece çocuk istismarına yönelik fotoğrafları tespit amacıyla geliştirildi.

0 0 0 0 0 0
YORUMLAR

s

En az 10 karakter gerekli

HIZLI YORUM YAP

0 0 0 0 0 0

Sizlere daha iyi hizmet sunabilmek adına sitemizde Kişisel verileriniz, Çerez Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylı bilgi almak için Çerez Veri Politikamızı / Aydınlatma Metnimizi inceleyebilirsiniz. Sitemizi kullanarak, çerezleri kullanmamızı kabul etmiş olacaksınız.

sondakika haberleri

haberler

canlı maç izle

banko tahminler

banko kuponlar

iddaa tahminleri

canlı maç izle

discord sunucuları

discord sunucuları