August 06, 06:06

Вечером вчера произошло очень важное, однако мало замеченное российскими источниками дело: Apple официально подтвердили что будут проверять фотки в iCloud Photos на предмет CSAM (Child Sexual Abuse Material), т.е. детского порно. И более того, с помощью машинного обучения прямо на устройстве айфон будет вам намекать, о том что содержимое фоток может быть не совсем подходящим. Это касается не только фоток в айклауде, но и изображений, пересылаемых через iMessage и тп.

Почему это так важно: по сути Эппл признались, что они будут заниматься изучением фотографий, которые вы делаете. Без разницы с какой целью, это означает “цифровой досмотр” того, что вы делаете со своим устройством. Безусловно, борьба с детским порно важная тема, однако в современном мире если ты признался, что можешь досматривать фотки на предмет детского порно - ты автоматически сознался что можешь досматривать фотки, а значит правительства всего мира не замедлят прийти и намекнуть, что они хотели бы знать о содержимом ваших фоток. Не знаю как вы, а я очень, очень расстроен, настолько что даже поддерживаю EFF в их праведном гневе.

Даже то, что эппл обещает делать это все прямо на вашем устройстве не облегчает ситуацию. Ложные срабатывания бывают у любого алгоритма, это обязательно приведет к тому, что часть ваших невинных фоток будут размечены как детское порно. www.eff.org/deeplinks/2021/08/apples-plan-think-different-about-encryption-opens-backdoor-your-private-life

Apple's Plan to "Think Different" About Encryption Opens a Backdoor

Apple has announced impending changes to its operating systems that include new “protections for children” features in iCloud and iMessage. If you’ve spent any time following the Crypto Wars, you