2021-04-21 07:57:00
Пока мировая общественность смотрит «Черное зеркало», обеспокоена тем, что роботы заберут нашу работу, и надеется, что заберут они прежде всего ту работу, которую мы делать не хотим, выясняется, что все неоднозначно. Тут один из людей, которых официально называют «контент-аналитиками», то есть модератор фейсбука, нанятый через компанию Accenture в Остине, штат Техас, написал письмо о тяжелых буднях стражей этих ваших интернетов.
Краткое содержание письма выглядит так: «Я, нижеподписавшийся, последние два с половиной года по восемь часов в день отсматриваю и отфильтровываю все те ужасы, которые вы не хотите видеть в цивилизованном интернете, и мне от этого так хреново, что вы даже представить себе не можете».
Например, автор пишет, что, невольно насмотревшись на видео о педофилии, самоубийствах, и прочих темных частях человеческой психики, очень сложно спать по ночам, а парочка «взрослый - ребенок», которую потом случайно встречаешь на улице, вызывает подозрения, даже если очевидно, что это любящие папа с дочкой.
А специально нанятые психологи, которые должны помогать справиться со стрессом, конечно, стараются делать свою работу – проводят тренинги и индивидуальные консультации. Но помедитировать и представить себе пляж, пальмы и море, как советуют психологи – это, может быть, неплохой способ вернуться на работу после обеденного перерыва – и вообще норм решение в горизонте получаса. Но спать ночью и нормально общаться с близкими помогает чуть более чем никак.
Мы вот что хотим по этому поводу сказать. Если вы что-то хотели знать о будущем рынка труда – то это ровно то, каким оно не должно быть. Но будет, если кардинально не поменять к нему подход.
Дело в том, что никакого страшного (или доброго) всеобъемлющего искусственного интеллекта в обозримом будущем не предвидится. Модели машинного обучения – прекрасная штука, которая отсеивает довольно серьезную часть темных сторон человечества в соцсетях и делает довольно много другой работы, которую человечество делать не хочет. Но оставшегося вполне хватает, чтобы в прямом смысле сводить с ума людей, которые фильтруют то, что остается, когда машина не может однозначно сказать, годный это контент или страсти-мордасти.
А сами эти модели иначе как людьми обучать и корректировать не получится. Вот и получается, что заниматься этим в ближайшие годы неминуемо будет весьма приличная часть человечества, особенно из сравнительно небогатых слоев общества.
И самое ужасное, что можно с этими людьми сделать – это посадить их фильтровать такое по восемь часов в сутки с перерывом на обед, как на заводе в середине XX века – тут ведь можно легко заработать пост-травматическое стрессовое расстройство, как после боевых действий. А потом его долго и дорого лечить - с эффективностью, прекрасно описанном в означенном письме «контент-аналитика Accenture».
Было бы круто, конечно, если бы обязанности по модерации всякой гадости – а заодно и прочие неприятные или просто скучные задачки в интернете можно было распределить на множество людей, каждый из которых соприкасался бы с ними в количестве, позволяющем остаться психически здоровым, да еще сделать это способом подработки, а не основного заработка.
Вот это и есть настоящее решение для нового неминуемо наступающего на нас свами рынка труда. Но это, как говорится, совсем другая история.
4.0K views04:57