2021-06-22 10:55:26
Обратил внимание на статью, посвящённую отношению людей к алгоритмической персонализации и использованию персональных данных онлайн (1). Вроде бы авторы развивают банальный тезис о том, что пользователям нравится получать интересующий их контент, но при этом они не желают делиться своими персональными данными. Правда, они подкрепляют его результатами эмпирического исследования в Германии, Великобритании и США. Более того, оказывается, что возникает так называемый разрыв приемлемости (acceptability gap): пользователи хотят получать персонализированный контент и услуги, но при этом не готовы давать разрешение на использование данных, которые необходимы алгоритмам для обеспечения этих сервисов.
Но детали ещё интереснее. Например, людям нравится получать персонализированный контент для покупок и развлечений, но при этом все больше респондентов отвечают, что не хотят такой персонализации в политических кампаниях. А в Великобритании и Германии более половины не желают получать и новости и статьи, выборка которых формируется на основе их персональных данных. Важно, что исследователи не находят значимых различий в этом отношении среди представителей разных политических предпочтений. Независимо от взглядов большинство пользователей хотят получать информацию из разнообразных источников. Что это значит? Возможно, люди понимают, что по вине алгоритмов часто находятся в информационном пузыре, который создает иллюзию большинства. И в этом отношении отказ от персонализации в вопросах политики, новостей и интерпретаций может объясняться как рациональное стремление к получению объективной информации. Кроме того, результаты исследования показывают, что многие осознают роль алгоритмов и принципы использования их данных для персонализации контента. Получается, что понимание работы алгоритмов и чуткое отношение к персональным данным могут быть предикторами ответственного и рационального поведения. Но это уже моя гипотеза, которая возникла по прочтении статьи.
И вот здесь у меня появляется ещё одно предположение. Платформы, собирающие и использующие данные пользователей для микротаргетинга новостной, аналитической и политической информации, постепенно будут терять популярность, если на рынке возникнет альтернативное предложение. Разрыв приемлемости в таком случае - результат научения пользователей, которые после десятилетия активного использования онлайн-платформ становятся более рациональными и ответственными в отношении персональных данных и собственного поведения в онлайн-среде. В этом смысле, кстати, перспективна модель Телеграма, где пользователи сами формируют свою ленту. В прошлом году была очень бурная дискуссия относительно статьи
What they do in the shadows: examining the far-right networks on Telegram (2), авторы которой "собрали" ультра-правый сегмент методом снежного кома. Но в Телеграме, где нет алгоритмов таргетинга, и тематических пузырей меньше, чем в том же Фейсбуке. Поэтому снежный ком дал исследователям пеструю выборку, на которую они по привычке наклеили общий ярлык.
Можно ли в таком случае предположить, что активные пользователи Телеграма менее подвержены таким когнитивным искажениям, как
confirmation bias, и более ответственны и рациональны в своем поведении? Нужно изучать.
#методология #цифровизация
(1) Kozyreva, A., Lorenz-Spreen, P., Hertwig, R. et al. (2021). Public attitudes towards algorithmic personalization and use of personal data online: evidence from Germany, Great Britain, and the United States. Humanit Soc Sci Commun 8, 117. DOI: 10.1057/s41599-021-00787-w
(2) Urman, A., Katz, S. (2020). What they do in the shadows: examining the far-right networks on Telegram. Information, Communication & Society. DOI: 10.1080/1369118X.2020.1803946
542 views07:55