2021-08-19 10:39:04
#мде
Немного долго я с этой новостью, но все же. Apple собирается впихать в свои телефоны алгоритмы, которые будут искать детскую порнографию в галерее и в случае чего стучать в полицию.
Всё это выглядит забавно на фоне той рекламы, которая гласит "Всё, что происходит на вашем iPhone, останется на вашем iPhone."
Я конечно не очень разбираюсь в нейронках, но насколько я понимаю, чтобы обучать компьютерное зрение, нужно прогонять огромную кучу искомых материалов. Разве это не является нарушением закона?
Во-вторых. Официальное заявление, в котором сказано о том, что работает нейронка локально (- куча вычислительных ресурсов), проверяет фотографии, загружаемые в iCloud (яблоконосцы, поправьте меня, если я ошибаюсь, но разве это не облако? Тогда почему нейронка работает локально?).
Плюс ко всему они уверяют, что снизят вероятность ошибки проверкой человеками, что как по мне противоречит локальности работы сервиса и безопасности пользователя. Возможно на проверку будут поступать только подозрительные фото, но один хрен, никаких гарантий из-за отвратительной закрытости йося нет.
Техника Apple по своему хороша, я не призываю ее бойкотировать или еще что-то в этом духе, но это решение, мягко говоря странное.
61 viewsedited 07:39