Получи случайную криптовалюту за регистрацию!

howtocomply_AI

Логотип телеграм канала @howtocomply_ai — howtocomply_AI H
Логотип телеграм канала @howtocomply_ai — howtocomply_AI
Адрес канала: @howtocomply_ai
Категории: Кредиты, Налоги, Право
Язык: Русский
Количество подписчиков: 432
Описание канала:

Про искусственный интеллект, право, политику и культуру.
Исчерпывающе, но не всегда лаконично.
Авторы:
Дмитрий Кутейников @kuteynikov
Осман Ижаев @osman_izhaev

Рейтинги и Отзывы

3.00

2 отзыва

Оценить канал howtocomply_ai и оставить отзыв — могут только зарегестрированные пользователи. Все отзывы проходят модерацию.

5 звезд

0

4 звезд

0

3 звезд

2

2 звезд

0

1 звезд

0


Последние сообщения

2023-04-25 22:21:32 Как связаны Акт о цифровых услугах, цифровые платформы, поисковики и системы ИИ

Европейская комиссия определила в соответствии с Актом о цифровых услугах (Digital Services Act) список из семнадцати особо крупных цифровых платформ (Instagram, TikTok, Wikipedia, YouTube и д.р.) и двух особо крупных поисковых систем (Bing, Google Search). В соответствии с актом к ним относятся платформы и поисковые системы, которые ежемесячно охватывают не менее сорока пяти миллионов активных пользователей.

После включения в перечень эти компании должны будут в течение четырех месяцев выполнить ряд предусмотренных актом требований. Они направлены на ужесточение модерации контента, а также на расширение возможностей по информированию и обеспечению безопасности пользователей (особенно наиболее уязвимых групп).

Ряд требований применимы также и к системам ИИ, например:

Пользователи будут получать четкую информацию о том, почему им рекомендуется та или иная информация. Также они будут иметь возможность отказаться от использования рекомендаций, основанных на профилировании.

Реклама не может быть таргетировна на основе чувствительных данных пользователя (таких как этническое происхождение, политические взгляды или сексуальная ориентация).

Платформы должны маркировать все рекламные объявления и информировать пользователей об их заказчике.

Не разрешается таргетированная реклама, основанная на профилировании детей.

Должна будет проводиться оценка риска, включая возможное негативное влияние на психическое здоровье. Документы должны будут предоствляться Еврокомиссии, а затем и публиковаться.

Платформам и поисковым системам необходимо принять меры по устранению рисков, связанных с распространением незаконного контента в сети и негативным влиянием на свободу распространения информации и выражения мнений.

Платформам необходимо провести оценку рисков и принять меры по их снижению - например, для борьбы с распространением дезинформации и ненадлежащим пользованием услугами.

Платформам необходимо обеспечить проведение внешнего и независимого аудита на предмет соблюдения всех требований акта, в том числе и проведения оценки рисков.
25 viewsedited  19:21
Открыть/Комментировать
2023-04-24 13:38:57 Европейские авторы и исполнители просят защитить их от генеративных систем ИИ

Более 40 европейских общественных объединений, представляющие тысячи авторов, исполнителей и производителей контента из разных отраслей (журналистика, фотография, музыка, изобразительное искусство и т.д.) обратились с открытым письмом в адрес членов Европарламента, Еврокомиссии и Совета ЕС. Поводом для обращения стало стремительное распространение генеративных систем ИИ.

Таких творческих людей, как мы, в Европе несколько миллионов; все мы живем благодаря своей творческой деятельности в культуре, в креативных индустриях и СМИ” – сообщается в письме.

В документе изложено их видение регулирования использования генеративных систем ИИ.
Изучение мнения профессионального сообщества никогда не является лишним. Мы решили рассмотреть их предложения. Забегая вперед скажем, что их беспокоит, прежде всего, вопрос защиты авторских прав.

Полный текст предложений и их обзор доступен по ссылке ниже:

https://telegra.ph/Artists-against-the-machines-04-24
52 views10:38
Открыть/Комментировать
2023-04-23 14:06:38 Неэтичный Бард

Несколько дней назад в Bloomberg вышла статья, в которой сотрудники компании рассказали о нарушениях этических стандартов, возникших из-за спешки при разработке чат-бота Bard от компании Google.

Недавно в нашем посте (на примере их конкурента – чат-бота Bing от Microsoft) мы поднимали проблемы отсутствия необходимой оценки систем ИИ и допуска на рынок явно "сырых" продуктов из-за гонки за первенство среди технологических гигантов. Судя по всему, эта негативная тенденция коснулась большинства участников ИИ-гонки.

Статья Bloomberg написана на основе полученной журналистами документации и проведенных бесед о сложившейся ситуации с восемнадцатью текущими и бывшими сотрудниками компании.

По данным журналистов, топ-менеджмент Google настоял на скорейшем выходе чат-бота – несмотря на то, что сотрудники компании в ходе внутренней проверки выразили предостережения о неготовности продукта. Чат-бот был склонен давать неверные и предвзятые ответы. Более того, представители команды, отвечающие за ИИ-этику, рассказали о своих фактически "второстепенных ролях" в ходе разработки продукта. Весь фокус был сделан на разработку продукта, а возражения этической команды рассматривались как мешающие развитию технологий.

Таким образом, прозвенел очередной звонок, подтверждающий необходимость введения законодательных требований ко всем этапам жизненного цикла систем ИИ (а не только их фактического использования), а еще лучше установления обязательного независимого внешнего аудита.
72 viewsedited  11:06
Открыть/Комментировать
2023-04-22 22:35:00 Нейронная оборона

Обнаружили крайне интересную книгу Инновации в сфере обороны на волне искусственного интеллекта: анализ стратегий, возможностей и траекторий развития применения искусственного интеллекта в вооруженных силах.

Издание представляет собой сборник статей, посвященных общим проблемам и региональным особенностям нормативного регулирования применения систем ИИ в воооружениях. В работах разных авторов рассматриваются такие страны и регионы, как ЕС, США, Россия, КНР, Южная Корея, Япония и Австралия.

Несмотря на то, что в своей академической и практической работе, как правило, мы занимаемся именно гражданским применением систем ИИ, отрасль обороны представляет крайний интерес для изучения. Данная сфера по понятным причинам предполагет особо жесткие требования к точности, кибербезопасности, непредвзятости и подотчетности функционирования систем ИИ. А, как мы хорошо знаем, военные разработки очень часто через некоторое время становятся частью нашей обыденной жизни. Более того, ряд систем ИИ являются товарами двойного назначения.

Также эта книга напомнила об организованной нами почти год назад на базе Университета имени О.Е. Кутафина (МГЮА) конференции “Право и искуственный интеллект”, где с участием представителей кафедры международного права состоялась интересная дискуссия о международно-правовых стандартах применения систем ИИ в вооруженных конфликтах.
91 viewsedited  19:35
Открыть/Комментировать
2023-04-20 23:21:43 Котики и системы ИИ

Подавляющее большинство концепций регулирования систем ИИ основаны на человекоцентричном подходе. Из названия уже очевидно, что такой подход определяет человека – его права и свободы – как главную ценность. Соблюдению и защите этой ценности должно быть подчинено функционирование систем ИИ. Да и в целом современное право сохраняет высокую степень антропоцентризма.

Сегодня мы обратим ваше внимание на интересную публикацию австралийских ученых из Университета Мельбурна Причинение вреда животным в связи с использованием искусственного интеллекта: систематический анализ и концепция.

Авторы отмечают, что системы ИИ активно взаимодействуют не только с людьми, но и с животными. Например, сейчас происходит активная автоматизация животноводства, системы ИИ отслеживают поведение диких животных, противостоят браконьерству и контрабанде. Даже домашние питомцы все чаще взаимодействуют с инфраструктурой умного дома. Пропорционально растут и риски прчинения вреда животным.

Для того, чтобы эффективно этими рисками управлять, авторы классифицировали случаи причинения вреда животным системами ИИ:

Социально осуждаемый и незаконный умышленный вред. Например, системы ИИ используются для браконьерства, незаконной торговли, отлова животных.

Социально приемлемый и законный умышленный вред. Например, животноводство, борьба с вредителями.

Неосторожный вред. Например, дтп с участием беспилотного транспорта, ошибки работы систем ИИ. Также могут быть косвенные негативные последствия от применения систем ИИ: разрушение среды обитания из-за использования систем ИИ (энергетика, добыча ресурсов), неверный сбор данных об окружающей среде в отсутствие человеческого контроля, предвзятости рекомендательных систем.

Вред от неиспользования. Например, недостаточное финансирование или игнорирование позитивного эффекта от использования систем ИИ в медицине, фармокологии, защите окружающей среды и т.п.

Таким образом, отношения человека и животных крайне многогранны. Даже к одному и тому же живому существу люди могут относиться по-разному. Например, в одних случаях оно может быть членом семьи и другом, а в других - пищей или объектом экспериментов. Поэтому и регулирование применения систем ИИ должно учитывать разные контексты.
123 viewsedited  20:21
Открыть/Комментировать
2023-04-19 19:50:58
Юрфирмы и генеративные системы ИИ

На днях Институт Томсон Рейтер опубликовал отчет ChatGPT и генеративный ИИ в юридических фирмах. Отчет сформирован на основе опроса более 440 юристов из средних и крупных юридических фирм США, Великобритании и Канады.

В документе много интересных цифр. Однако хотим обратить ваше внимание на вторую половину отчета, она посвящена потенциальным рискам использования подобных систем ИИ.

Несмотря на то, что полезный потенциал их использования крайне велик, многие респонденты отметили проблемы относительно точности и безопасности функционирования таких систем, а также защищенности конфиденциальной информации (особенно применительно к таким публично доступным продуктам, как ChatGPT).

Даже те юрфирмы, которые выразили готовность использовать системы ИИ в своей деятельности, высказались за необходимость установления границ и правил их применения.
193 viewsedited  16:50
Открыть/Комментировать
2023-04-19 10:06:36 В мире за 2022 год принято рекордное количество законов, связанных с искусственным интеллектом

По данным исследования Artificial Intelligence Index Report 2023 (Stanford Institute for Human-Centered AI), за 2016–2022 гг. в мире (127 стран) принято 123 закона с упоминанием термина “искусственный интеллект”. За этот период больше всего актов приняли в США – 22 закона. Обратим также внимание на Россию, в которой принято 9 законов.

В статистике законотворчества любопытным является не количество принятых актов, а их постоянное увеличение от года к году. В 2022 году было принято 37 законов, в то время как за весь 2016 год всего 1.

Принятые в 2022 году акты регулируют самые разные сферы общественных отношений, связанные с искусственным интеллектом. Несколько примеров из документа, иллюстрирующих широту областей регулирования:

Латвия (Поправки в Закон о национальной безопасности) – устанавливаются ограничения на деятельность коммерческих компаний, ассоциаций и фондов, важных для национальной безопасности, включая компании, занимающиеся разработкой искусственного интеллекта;

Испания (Право на равное обращение и недискриминацию) – устанавливается, что алгоритмы искусственного интеллекта, задействованные в принятии решений государственными органами, должны учитывать критерии минимизации предвзятости, прозрачности и подотчетности в случаях, когда это технически возможно;

Филиппины (Закон о второй комиссии Конгресса по образованию) – акт содержит призыв к проведению реформ в сфере образования с учетом стремительного развития искусственного интеллекта. Предусматривается создание комиссии Конгресса для изучения филиппинского образования и выработки рекомендаций по проведению реформ;

США (Закон об обучении в сфере ИИ) – предписывает Административно-бюджетному управлению (входит в администрацию Президента США) обеспечить реализацию программы обучения по ИИ для сотрудников исполнительных органов, отвечающих за закупки (с некоторыми исключениями). Целью программы является приобретение персоналам знаний о возможностях и рисках, связанных с применением ИИ.

Очевидно, что с каждым годом законодательство все более детально и многогранно будет регулировать разные сферы общественной жизни, которые соприкасаются с системами ИИ. Рост количества (надеемся и качества) нормативных правовых актов приведет к увеличению различного рода требований ко всем участникам общественных отношений.
175 viewsedited  07:06
Открыть/Комментировать
2023-04-17 21:21:00 Генеративный искусственный интеллект - верхушка айсберга

За последний год все мы стали свидетелями (и даже немного устали от новостей) вторжения в нашу жизнь больших языковых моделей и иных генеративных систем искусственного интеллекта.

Они рисуют изображения, пишут музыку и тексты, создают видео, распознают образы.

Все эти продукты охватываются более широким термином - системы ИИ общего назначения. Их масштабное использование ставит новые вызовы перед законодателями.

В нашем лонгриде мы рассматриваем особенности регулирования таких систем проектом Регламента ЕС об ИИ, а также критику его отдельных положений экспертным сообществом.

Полный текст доступен по ссылке ниже.

https://telegra.ph/general-purpose-AI-systems-04-16
163 views18:21
Открыть/Комментировать
2023-04-15 16:26:58
Пока все обсуждают возможного конкурента OpenAI в лице Илона Маска, мы с участием приглашенного эксперта и CatGPT готовим пост про проблемы правового регулирования применения систем ИИ общего назначения
152 viewsedited  13:26
Открыть/Комментировать
2023-04-14 18:32:15 США могут пересмотреть свой подход к регулированию применения искусственного интеллекта

Сенатор от демократической партии, лидер Большинства в Сенате Чарльз Шумер вот уже несколько месяцев распространяет и обсуждает с экспертами новый рамочный подход к регулированию применения искусственного интеллекта в США.

Новость интересна тем, что в США сейчас отсутствует сквозное федеральное регулирование сферы ИИ. Часто на соответствующие общественные отношения распространяются положения различных антидискриминационных федеральных законов.

Одновременно с этим на уровне некоторых штатов существует опережающее регулирование. Например, в Нью-Йорке принят акт, регулирующий применение автоматизированных систем принятия решений о приеме на работу (A Local Law to amend the administrative code of the city of New York, in relation to automated employment decision tools).

А в Колорадо существует закон штата, обязывающий страховые компании иметь систему управления рисками, защищающую граждан от дискриминации (Concerning protecting consumers from unfair discrimination in insurance practices).

До последнего времени США планировали регулировать эту сферу через мягкое право. В частности, Национальным институтом стандартов и технологий при Министерстве торговли США недавно принята система стандартов по риск-менеджменту ИИ (Artificial Intelligence Risk Management Framework). Документ оказывает важное регулирующее воздействие на индустрию, но в то же время его положения носят рекомендательный характер.

В новом подходе речь может идти про императивное регулирование на уровне федерации, затрагивающее применение ИИ в разных сферах общественных отношений. Сообщается, что предлагаемый подход достаточно широкий и гибкий, но при этом обеспечит безопасность, подотчетность и прозрачность технологии.

Сенатор планирует доработать свои предложения совместно с заинтересованными лицами из академической сферы, правозащитных организаций, промышленности и правительства.

Будут предприняты усилия по разработке комплексного нормативного правового акта. Возможно, предложения сенатора в ближайшее время обретут форму законодательной инициативы.

В то же время необходимо учитывать, что Бигтэки много лет последовательно выступают против комплексного законодательного регулирования.
156 views15:32
Открыть/Комментировать