Получи случайную криптовалюту за регистрацию!

ChatGPT notes — AI, Нейросети & Чат-боты

Логотип телеграм канала @chatgptnotes — ChatGPT notes — AI, Нейросети & Чат-боты C
Логотип телеграм канала @chatgptnotes — ChatGPT notes — AI, Нейросети & Чат-боты
Адрес канала: @chatgptnotes
Категории: Технологии
Язык: Русский
Количество подписчиков: 2.89K
Описание канала:

Твой навигатор по ChatGPT и GPT-4. Новости, интересные промпты, факты, технические подробности - и всё от специалистов с опытом!

Рейтинги и Отзывы

3.67

3 отзыва

Оценить канал chatgptnotes и оставить отзыв — могут только зарегестрированные пользователи. Все отзывы проходят модерацию.

5 звезд

2

4 звезд

0

3 звезд

0

2 звезд

0

1 звезд

1


Последние сообщения

2023-04-08 01:15:29
Выглядит симпатично.

Рекомендую зайти, поиграться, есть интерактивные Demo.

https://segment-anything.com
996 views22:15
Открыть/Комментировать
2023-04-08 01:07:11



Ребята из Meta выпустили SAM (Segment Anything Model), первую foundation модель для задач сегментации картинок и видео в режиме реального времени. Foundation – означает, что она, в принципе, даже без дообучения уже отлично решать все задачи своего класса (сегментации). Аналогично, GPT – foundation model для текста.

В принципе, за признаки жизни их Reality Lab* засчитать можно [Reality Lab – лаборатория в Meta, где разрабатываются дополненная реальность и VR].

#llm #gpt #chatgpt #meta #sam #facebook
1.0K views22:07
Открыть/Комментировать
2023-04-07 10:40:09
https://mobile.twitter.com/karpathy/status/1644183721405464576
1.5K views07:40
Открыть/Комментировать
2023-04-06 09:12:59 Написал статью про плагин-ретривер к ChatGPT

https://habr.com/ru/articles/727146/
1.6K views06:12
Открыть/Комментировать
2023-04-05 09:45:04
Наткнулся на занятную статью "8 вещей, которые надо знать о больших языковых моделях" Краткое содержание: 1. LLM предсказуемо становятся более "способными" с увеличением затрат в $, даже без крутых инноваций. Главное тут - предсказуемость, что было показано…
938 views06:45
Открыть/Комментировать
2023-04-05 09:45:04 Наткнулся на занятную статью "8 вещей, которые надо знать о больших языковых моделях"

Краткое содержание:
1. LLM предсказуемо становятся более "способными" с увеличением затрат в $, даже без крутых инноваций. Главное тут - предсказуемость, что было показано в статье про GPT-4: учили 5-7 маленьких моделек с бюджетом 0.1% от финального, а затем по этому делали предсказание для огромной модели. Для общей оценки перплексии и метрик на подвыборке одной конкретной задаче такое предсказание было очень точным.

2. Однако конкретные важные навыки, как правило, возникают непредсказуемо как побочный продукт увеличения затрат на обучение (дольше тренировать, больше данных, больше модель) - практически невозможно предсказать, когда модели начнут выполнять определенные задачи. Подробнее об этом мы писали в статье про историю развития GPT-моделей, которую, надеюсь, многие из вас читали. На картинке - распределение роста качества моделей в разных задачах. В трети маленькие модели ничего не показывают, средние в целом тоже, а большие БАХ! И учатся решать.

3. LLM часто выучивают и используют представления внешнего мира. Тут приводится много примеров, и вот один из них: модели, обученные играть в настольные игры на основе описаний отдельных ходов, никогда не видя изображения игрового поля, выучивают внутренние представления о состоянии доски на каждом ходу.

4. Не существует надежных методов управления поведением LLM. Хотя и был достигнут некоторый прогресс в понимании и смягчении разных проблем (в том числе ChatGPT и GPT-4 с обучением из обратной связи), нет единого мнения о том, сможем ли мы их решить. Растет обеспокоенность, что проблемы alignment'а станут катастрофическими, когда проявятся в более крупных системах будущего.

5. Эксперты пока не могут интерпретировать внутреннюю работу LLM. Yе существует методики, которая позволила бы каким-либо удовлетворительным образом изложить, какие виды знаний, рассуждений или целей использует модель, когда она генерирует какой-либо результат.

6. Качество выполнения задач человеком не является верхней границей для LLM. Хотя они и обучены в первую очередь имитировать поведение человека при написании текста, но всё равно потенциально могут превзойти нас во многих задачах. Так происходит в более узких задачах вроде шахмат или игры в Го.

7. LLM не должны выражать ценности своих создателей или ценности, закодированные в выборке из интернета. Они не должны повторять стереотипы, теории заговора или стремиться оскорбить кого-либо.

8. Оценки способности модели по первым впечатлениям часто вводят в заблуждение. Очень часто нужно додумать правильный промпт, подсказать модели, может, показать примеры - и она начнёт справляться куда лучше. То есть она "умнее", чем кажется на первый взгляд.
813 views06:45
Открыть/Комментировать
2023-03-30 12:24:09
Умный ассистент Siri появился больше 10 лет назад, в 2011. Кажется, что многие тогда думали "ухххх через 10-то лет будет такой умной! Настоящий ИИ!"

Парень с твиттера прикрутил к Siri в Apple Watch вызовы GPT-4. Далее он сказал своим часам, мол, мне надо в репозиторий с моим проектом добавить вот такую кнопку, так и так, можешь помочь?". Дальше происходит магия, и на GitHub появляется пулл-реквест от GPT-шки, с написанным кодом.

Ухххх поскорее бы аналог Джарвиса из "Железного Человека"...

3-минутное видео с демонстрацией: https://fxtwitter.com/i/status/1641204093074145281
2.1K views09:24
Открыть/Комментировать
2023-03-29 20:49:48
Bing Chat постепенно встраивает рекламу в результаты поиска, выглядит так, будто бы эпоха «нативной рекламы» снова вернулась, но уже без участия человека. Хоть бейджик «Ad» ставят, и на том спасибо.

Интересно насколько такая реклама будет дороже для бизнеса
1.8K views17:49
Открыть/Комментировать
2023-03-28 14:35:33
AI-ассистент финансовому аналитику

Тут один британский учёный инженер решил на коленке склепать себе ассистента для анализа финансовой отчётности с помощью GPT. Как proof-of-concept он загрузил примерно тысячу страниц PDF-файлов из отчётности Tesla за 2020-2022 года. Понятно, что человеку, даже опытному, достаточно тяжело в таком ориентироваться.

Но что если на помощь позвать ассистента, которому можно задать вопрос, а он найдет на него ответ из файлов, ещё и может приложить свою экспертизу?

Вот 40-минутное видео с детальным объяcнением принципа работы, а код весь открыт тут. Очень клёвая идея для петпроекта, ещё бы добавить возможность модели самой задавать вопросы и на них отвечать (aka "чеклист проверки отчётности") - и вообще огнище будет!

На скриншоте - диаграмма пайплайна
1.8K views11:35
Открыть/Комментировать
2023-03-28 13:38:50 ​Разработчик и энтузиаст старых компьютерных технологий Йо Кхэн Мэн написал клиента ChatGPT для MS-DOS и запустил чат-бота из командной строки на своём портативном ПК на базе IBM 5155 с центральным процессором Intel 8088 с тактовой частотой 4,77 МГц и 640 КБ ОЗУ. Этот компьютер был выпущен в 1984 году, у него монохромный монитор, видеокарта CGA и откидывающаяся клавиатура.

Йо Кхэн Мэн пояснил, что DOS не имеет встроенных сетевых возможностей, а вычислительная мощность старых ПК намного слабее, чем нужно для работы подобных проектов. При написании кода для этой платформы он столкнулся с дополнительными трудностями. Йо Кхэн Мэн использовал компилятор Open Watcom C/C++ для создания клиента ChatGPT под MS-DOS, а также Packet Driver API и библиотеку MTCP для работы сетевого стека.

Другая проблема заключалась в том, что API-интерфейсы ChatGPT шифруются через HTTPS, а современные алгоритмы шифрования TLS не работают на Intel 8088. Йо Кхэн Мэн решил обойти это ограничение, используя свой собственный инструмент http-to-https-proxy, написанный на Golang и запущенный на современном ПК, который подключён по сети к IBM 5155.
2.5K views10:38
Открыть/Комментировать