Получи случайную криптовалюту за регистрацию!

Machinelearning

Логотип телеграм канала @ai_machinelearning_big_data — Machinelearning
Адрес канала: @ai_machinelearning_big_data
Категории: Технологии
Язык: Русский
Количество подписчиков: 74.06K
Описание канала:

Разбираем лучшие open source новинки из мира ml, код, вопросы с собеседований, публикуем открытые курсы и гайды
Первоисточник всего, что появляется в платных курсах и остальных ресурсах.
По всем вопросам- @haarrp
@itchannels_telegram -🔥best channels

Рейтинги и Отзывы

3.00

2 отзыва

Оценить канал ai_machinelearning_big_data и оставить отзыв — могут только зарегестрированные пользователи. Все отзывы проходят модерацию.

5 звезд

1

4 звезд

0

3 звезд

0

2 звезд

0

1 звезд

1


Последние сообщения 14

2023-04-26 12:10:40
ChatGPT: создаем ИИ без единой строчки кода

Бесплатно покажем, как создать нейросеть полностью только запросами к ChatGPT! Без единой строчки кода написанной руками!

Получи запись прямо сейчас!

А еще у нас крутые интенсивы на которых ученики пишут собственные нейронки без опыта программирования - это тоже Бесплатно
3.2K views09:10
Открыть/Комментировать
2023-04-25 11:31:14
Collaborative Diffusion for Multi-Modal Face Generation and Editing

Multi-modal controls, framework synthesizes high-quality images consistent with the input conditions.

Проект, который позволяет использовать несколько модальностей для управления созданием и редактированием лица.

Github: https://github.com/ziqihuangg/collaborative-diffusion

Project: https://ziqihuangg.github.io/projects/collaborative-diffusion.html

Paper: https://arxiv.org/abs/2304.10530v1

Dataset: https://paperswithcode.com/dataset/celeba-dialog

ai_machinelearning_big_data
4.2K views08:31
Открыть/Комментировать
2023-04-25 10:05:19
Как Airflow и k8s помогают строить эффективный конвейер?

Узнайте 27 апреля в 20:00 на открытом уроке в OTUS. Вебинар приурочен к старту онлайн-курса «MLOps».

На этом занятии мы построим свой конвейер обучения моделей на Airflow и k8s.

Для участия нужно зарегистрироваться:
https://otus.pw/M29e/

Нативная интеграция. Информация о продукте www.otus.ru
4.0K views07:05
Открыть/Комментировать
2023-04-24 20:34:01
Count anything

An empirical study on few-shot counting using segment anything

Исследование использования метода
SAM для сложной задачи подсчета объектов по нескольким снимкам.

Github: https://github.com/vision-intelligence-and-robots-group/count-anything

Paper: https://arxiv.org/abs/2304.10817v1

Hugging face: https://huggingface.co/spaces/nebula/counting-anything

Dataset: https://drive.google.com/file/d/1ymDYrGs9DSRicfZbSCDiOu0ikGDh5k6S/view?usp=sharing

ai_machinelearning_big_data
4.3K views17:34
Открыть/Комментировать
2023-04-24 18:34:02
Сбер запускает новую нейролингвистическую модель GigaChat.

GigaChat может ответить как быстро справиться с тревогой или подсказать, как справиться с грустью и улучшить настроение. Но, помимо этого, нейросеть генерирует ответы и на другие вопросы с помощью метода supervised fine-tuning, reinforcement learning with human feedback, а также на нейросетевом ансамбле NeONKA (NEural Omnimodal Network with Knowledge-Awareness).
GigaChat расширяет опыт взаимодействия с поисковыми запросами и учитывает контекст во время генерации ответа. И все это на русском языке.

На данный момент GigaChat находится в статусе закрытого бета-тестирования. Если вас привлекает перспектива стать одним из первых пользователей, получивших бесплатный доступ после его официального релиза, переходите по ссылке в Телеграм-канал.
4.8K views15:34
Открыть/Комментировать
2023-04-24 16:08:01
Omni Aggregation Networks for Lightweight Image Super-Resolution

Omni Self-attention paradigm for simultaneous spatial and channel interactions,mining all the potential correlations across omni-axis.

Omni-SR, легковесный фреймворк для получения высокого разрешения изображений.


Github: https://github.com/francis0625/omni-sr

Paper: https://arxiv.org/abs/2304.10244v1

Dataset: https://paperswithcode.com/dataset/manga109

ai_machinelearning_big_data
4.6K views13:08
Открыть/Комментировать
2023-04-24 15:08:20
А вы уже успели приобрести жильё по программе льготной ипотеки для IT-специалистов? Нет? Тогда эта новость для вас!
Застройщик ЛСР предлагает в апреле скидки всем, кто оформит IT-ипотеку:
1% — на однокомнатную квартиру или студию;
2% — на двухкомнатную квартиру;
3% — на 3-5-комнатную квартиру.
Скидка предоставляется на покупку недвижимости во всех объектах застройщика. Еще один момент: важно быть сотрудником компании-партнёра ЛСР.
Что делать, если ваша компания не является партнёром застройщика? Подать заявку на её включение в список! Важно: требования к компании включают аккредитацию Минцифры России и использование налоговых льгот.
Подробнее об акции здесь.

Реклама. ООО "ЛСР. НЕДВИЖИМОСТЬ-СЗ" LjN8K2f4Y

 
4.4K views12:08
Открыть/Комментировать
2023-04-23 10:18:15
Learning to Program with Natural Language

This project introduces the Learning to Program (LP) method, which aims to learn the task program in text form from the training set using Large Language Models (LLMs) themselves.

Новый проект от Microsoft представляет метод Learning to Program (LP), который позволяет использовать естественный язык в качестве языка программирования для описания процедур задач, делая их легко понятными как для людей, так и для LLM.

Github: https://github.com/microsoft/naturallanguageprogram

Paper: https://arxiv.org/pdf/2304.10464v1.pdf

Dataset: https://paperswithcode.com/dataset/math

ai_machinelearning_big_data
5.2K views07:18
Открыть/Комментировать
2023-04-22 09:46:19
LLM Zoo: democratizing ChatGPT

Model "Phoenix", achieving competitive performance among open-source English and Chinese models while excelling in languages with limited resources

LLM Zoo - это проект, который предоставляет данные, модели и бенчмарки для больших языковых моделей.


Github: https://github.com/freedomintelligence/llmzoo

Paper: https://arxiv.org/abs/2304.10453v1

Parameters: https://huggingface.co/FreedomIntelligence/phoenix-chat-7b

ai_machinelearning_big_data
2.5K views06:46
Открыть/Комментировать
2023-04-20 18:03:06
Understanding INT4 Quantization for Transformer Models: Latency Speedup, Composability, and Failure Cases

В данной работе исследуется возможность использования квантования INT4 для языковых моделей и показываем.

Github: https://github.com/microsoft/DeepSpeed

Paper: https://arxiv.org/pdf/2301.12017v1.pdf

Dataset: https://paperswithcode.com/dataset/multinli

ai_machinelearning_big_data
2.4K views15:03
Открыть/Комментировать