Ничего необычного, просто запустил модель по уровню прошлых версий GPT4 у себя на ноуте
Модель Command R+ размером 104B параметров; эта модель сейчас на 6 месте среди всех языковых моделей в мире и она в открытом доступе (с некоммерческой лицензией, правда)
Gguf версию качал тут
Подробнее о том как ее запустить в моем закрытом канале:
Лол, какой VIP канал, мир локальных моделей пока недружелюбный настолько насколько возможно, опции всего две: открываете llama.cpp на github и следуете инструкциями там, или просто ждете еще пару недель пока все популярные back-end аппы подключат ее поддержку (рекомендованный вариант)