Получи случайную криптовалюту за регистрацию!

Нейроканал

Логотип телеграм канала @neuro_channel — Нейроканал Н
Логотип телеграм канала @neuro_channel — Нейроканал
Адрес канала: @neuro_channel
Категории: Технологии
Язык: Русский
Количество подписчиков: 10.61K
Описание канала:

Искусственный интеллект, нейросети, машинное обучение
Купить рекламу: https://tprg.ru/SlTz
По вопросам рекламы: @tproger_sales_bot
Правила общения: https://tprg.ru/rules
Другие каналы: @tproger_channels

Рейтинги и Отзывы

2.00

2 отзыва

Оценить канал neuro_channel и оставить отзыв — могут только зарегестрированные пользователи. Все отзывы проходят модерацию.

5 звезд

0

4 звезд

0

3 звезд

1

2 звезд

0

1 звезд

1


Последние сообщения 57

2021-09-30 22:01:18Любите бегать за грибами? Сейчас самый сезон в лесу. А если не хотите, то можете зайти в какую-нибудь игру, где нужно собирать грибы. У нас есть пример.

Небольшое видео, где показывается процесс работы нейронной сети в принятии решений внутри игрового пространства игры Mario. Еще одна комбинация ИИ и генетических алгоритмов (то есть множество итальянских водопроводчиков, которые не смогли нормально пройти уровень отправились на свалку).

Посмотреть:




Исходники (не знаем, почему автор решил поделиться ими в Pastebin):
https://pastebin.com/ZZmSNaHX

#позалипать #нейронные_сети
1.9K views19:01
Открыть/Комментировать
2021-09-29 14:14:06Если хотите поиграться в секретного агента и заодно получить орден шакала первой степени, вы попали по адресу. Сегодня на повестке дня нейросети-автоэнкодеры.

Состоит она из двух частей: энкодера и декодера. Первый сжимает полученные данные в скрытое пространство (latent-space) или «кодирует», второй проворачивает обратное. Какие плюсы и зачем это надо? Например если нам необходимо уменьшить размерность каких либо данных, тем самым уменьшив затраты на их хранение и доставку. Ну или кидаться друг в друга закодированными сообщениями.

Посмотреть (теория с реализацией на PyTorch):




Почитать:
https://neurohive.io/ru/osnovy-data-science/avtojenkoder-tipy-arhitektur-i-primenenie/

#нейронные_сети
2.0K views11:14
Открыть/Комментировать
2021-09-27 21:59:38Слышите звук? И я не слышу. А он есть. А чтобы и ИИ его услышал, звуковые файлы надо уметь представлять в нужном формате.

Амплитуда, частота, период, спектрограмма, быстрое преобразование Фурье и многие другие умные вещи можете найти в гайдах по ссылке. В одном видео объясняется теория всех фич и возможных представлений звуковых данных для ИИ, в другом есть препроцессинг данных в Python.

Посмотреть (теория):




Посмотреть (практика):




#данные
2.2K views18:59
Открыть/Комментировать
2021-09-25 21:38:50В случае если кто-то претендует на понимание нейронных сетей, он не может обойтись без метода обратного распространения ошибки.

Всё это математическое волшебство направлено на одну вещь — корректировку весов модели на внутренних слоях нейронной сети более-менее понятным образом. Если вы уже разобрались с градиентным спуском, то проблем с пониманием не будет. Кстати, всё это дело очень хорошо работает на матричных вычислениях, поэтому не пропускаем гайды по соответствующим программным инструментам.

Посмотреть:




Почитать:
https://sijunhe.github.io/blog/2017/03/27/reading-notes-the-1986-backpropagation-paper/

#это_база #математика
2.5K views18:38
Открыть/Комментировать
2021-09-24 15:00:06Орлята учатся летать, почему бы нейронным сетям не попробовать тоже?

Если у вас есть полчаса свободного времени, можете посмотреть как нейронную сеть учили летать на самолете. Там не так много деталей, описывающих как именно проходило обучение, зато самолетики весело разбиваются о всякие элементы ландшафта. Ах да, это всё симуляция на компьютере, само собой.

Посмотреть:




#позалипать #искуственный_интеллект
2.4K views12:00
Открыть/Комментировать
2021-09-24 12:01:44Было ли у вас такое, что вы готовились к экзамену, выучили все вопросы что вам дали, но вас завалил всего один вопрос не по теме?

В случае с ИИ это называется переобучением. Модель настолько сильно обучилась под тренировочный датасет, что вобрала в себя все его шумы и особенности. Метрики качества будут очень хорошими, пока мы не перейдем на тестовый датасет, где всё будет уже не очень радужно. Этим например могут страдать деревья решений (можем лечить ограничением глубины дерева и/или количества элементов при разделении).

Примерно аналогичным образом определяется недообучение, однако отлавливается оно ещё быстрее, так как модель показывает плохие значения метрик качества даже на тренировочном датасет.

Посмотреть:




Почитать:
https://machinelearningmastery.com/overfitting-and-underfitting-with-machine-learning-algorithms/

#это_база #искуственный_интеллект
2.4K views09:01
Открыть/Комментировать
2021-09-21 21:30:06Работы с данными много не бывает. И повторения тоже.

Поэтому держите небольшой (всего на часик) гайд по Pandas, если не поймали предыдущий. И это не про милых бамбуковых медведей (которые в теории могут закусить маленькими зверьками), а про библиотеку по работе с данными (в основном формата csv).

Посмотреть:




#это_база #программирование
2.5K views18:30
Открыть/Комментировать
2021-09-20 17:30:06 Пока все хвастаются своими машинами, сделайте себе свою Gradient Boosting Machine.

Градиентный бустинг это весьма ходовой в данный момент алгоритм с множеством вариаций (в основном используют XGBoost). Основная идея: натренировали модель, получили её ошибки, а дальше тренируем модель уже на предикторах и ошибках, предсказываем их и корректируем результат первой модели. И это можно повторить (натренировать модель предсказывать ошибки предсказания ошибок). Повторять до готовности.

Посмотреть:
https://www.youtube.com/playlist?list=PLblh5JKOoLUJjeXUvUE0maghNuY2_5fY6

#это_база #градиентный_бустинг
2.7K viewsedited  14:30
Открыть/Комментировать
2021-09-19 23:30:06Немножко прикладного ИИ, который уже сделали за вас.

Парень объясняет как можно стилизовать одно изображение под другое, используя специально натренированную под это дело модель. С примерами кода, само собой.

Посмотреть:




#позалипать #искуственный_интеллект
2.7K views20:30
Открыть/Комментировать
2021-09-18 19:30:06И даже ребята из Google DeepMind начинали с чего-то базового, прежде чем побеждать человечество в древние игры.

Если кто-то ещё не последовал нашим рекомендациям и не посмотрел курс от Стэнфордского университета по нейронным сетям целиком, значит будем предлагать альтернативы побыстрее.

Небольшой факт: если у вас есть друг биолог/биоинформатик, не пытайтесь ему доказать, что нейронные сети имитируют работу человеческого мозга, ведь это не так. Само название «нейронная сеть» пошло, как ни странно, от слова «нейрон», и состоит она из искусственных нейронов, которые являются математической моделью старого представления о нейронах биологических.

Посмотреть (Стэнфорд, долго):




Посмотреть (3Blue1Brown, быстро):




Почитать (ну кто как читает):
https://www.ibm.com/cloud/learn/neural-networks

#это_база #нейронные_сети
2.7K viewsedited  16:30
Открыть/Комментировать