vot-tak.tv
clear search form iconsearch icon

Apple начал проверять фото в iPhone, чтобы найти детскую порнографию

Apple запустила нейросеть, которая будет проверять фотографии в iPhone на предмет детской порнографии. Об этом компания официально объявила в своем блоге. Пока сервис работает только в США.

По словам Apple, система не оценивает сами изображения. Она получает хэш, зашифрованный код от снимков, и сопоставляет его с базой данных Национального центра пропавших детей (NCMEC). Каждое фото, которое пользователь будет загружать в iCloud, получит метку безопасности. При совпадении хэшей метка будет говорить о возможном нарушении. Если у пользователя наберется много «небезопасных» меток, то данные расшифруют, передадут в NCMEC, а сам аккаунт заблокируют.

В корпорации заверили, что они смогут получить доступ только к подозрительным снимкам. Другие данные останутся конфиденциальными.

Новости
Apple удалила из AppStore приложение для знакомств антипрививочников
01.08.2021 19:33

iPhone и iPad будут следить за поиском и за сообщениями. Людям, которые ищут контент, связанный с детской порнографией, предложат помощь. Детям будут блокировать эротические изображения в iMessage.

Ранее The Financial Times писал о подробностях работы алгоритма Apple. Он называется neuralMatch. Эту нейросеть натренировали на 200 тыс. изображений из архивов Национального центра пропавших детей.

По мнению профессора кибербезопасности университета Джона Хопкинса Мэттью Грина, Apple показала, что может сканировать зашифрованный контент. Этим могут воспользоваться репрессивные политические режимы.

Подписывайтесь на наш телеграм-канал, чтобы не пропустить главное
Популярное