Скидки до 50% и курс по ИИ в подарок 2 дня 12 :27 :27 Выбрать курс
Код
#статьи

LM Studio: что это такое и как локально запустить языковую модель

Личный ChatGPT без подписок, кода и возни с терминалом.

Иллюстрация: Оля Ежак для Skillbox Media

LM Studio — кросс-платформенное приложение для запуска языковых моделей прямо на компьютере. Внешне оно похоже на ChatGPT: тот же чат, где вы можете общаться с ИИ и загружать файлы для анализа. Разница лишь в том, что в LM Studio запросы обрабатываются локально и Сэм Альтман никогда не узнает, над чем вы работаете.

В этой статье мы установим LM Studio и расскажем, где скачивать и как запускать локальные нейросети. А ещё мы протестируем одну модель в разных сценариях и посмотрим несколько альтернативных сервисов.

Содержание


Разбираем особенности локальных моделей

Главное преимущество локальных языковых моделей связано с приватностью. Все данные остаются на вашем устройстве и никуда не передаются. Это важно при работе с конфиденциальной информацией — например, при анализе финансовых отчётов компании, обработке карт пациентов или подготовке юридических документов, подпадающих под NDA.

Среди других преимуществ можно выделить следующие:

  • Настройка под задачи. Можно адаптировать локальную модель под конкретные нужды: подключить базу знаний, загрузить корпоративные документы или обучить её специализированной терминологии. Так вы получите ассистента, который лучше понимает контекст вашей работы и даёт более точные ответы.
  • Свобода общения. У всех облачных нейросетей есть темы, которые нельзя обсуждать. Например, DeepSeek аккуратно обходит вопросы о Тайване и событиях на площади Тяньаньмэнь в 1989 году, а ChatGPT часто отказывается давать медицинские, психологические и финансовые советы. В большинстве локальных моделей такие ограничения можно легко отключить.
  • Работа без интернета. Локальные нейросети выручают в удалённых местах или при нестабильном соединении — в самолёте, на даче без Wi-Fi или в зонах с плохим покрытием.
  • Экономия средств. Локальные модели не требуют платной подписки и позволяют обрабатывать неограниченное количество запросов. При этом всё работает без очередей, которые возникают в бесплатных версиях облачных сервисов.

Из основных недостатков мы бы выделили сильную зависимость от ресурсов компьютера. Например, для работы с моделями на 70 миллиардов параметров вам нужно не менее 64 ГБ оперативной памяти и видеокарта с большим объёмом VRAM. Даже 32 ГБ ОЗУ может быть недостаточно для локального запуска нейросетей уровня ChatGPT — такие модели будут тормозить или вообще не запустятся.

Кроме того, локальные нейросети не подключены к интернету. Поэтому они не могут искать актуальную информацию и без обновлений будут выдумывать данные или ссылаться на устаревшие.

Устанавливаем LM Studio и проверяем систему

Перейдите на сайт lmstudio.ai и нажмите на кнопку Download. Мы установим LM Studio на MacBook Pro с чипом M1 Pro и 16 ГБ ОЗУ.

Если на главной странице сайта ваша операционная система не определилась автоматически, то перейдите в раздел Download. В нём выберите ОС, укажите архитектуру процессора и скачайте программу.

Скриншот: LM Studio / Skillbox Media

После запустите скачанный файл и установите его как обычную программу. Например, на macOS нужно перенести иконку LM Studio в папку Applications, а на Windows — пройти шаги, которые предложит мастер установки.

Если всё получилось, то после запуска вы увидите главный экран приложения — он напоминает интерфейсы ChatGPT, DeepSeek, Grok и других сервисов. В центре появится маленький фиолетовый робот с надписью LM STUDIO, а ниже — пустое окно с полем Send a message to the model…. Именно сюда вы будете вводить свои запросы к модели.

Скриншот: LM Studio / Skillbox Media

Однако, если LM Studio не запускается, скорее всего, ваше устройство не соответствует рекомендованным системным требованиям:


macOS Windows Linux
Процессор Чипы Apple Silicon
(M1–M4)
Любой современный процессор — Intel, AMD или ARM (например, Snapdragon X Elite) 64-битный Intel, AMD или ARM
Система macOS 13.4 и новее, для MLX — с версии 14.0 Windows 10 / 11 Ubuntu 20.04 и новее
Оперативная память От 16 ГБ, на 8 ГБ пойдут только лёгкие модели От 16 ГБ От 16 ГБ
Видеокарта Используется общая память чипа Желательна видеокарта с 4 ГБ VRAM Зависит от конфигурации
Особенности Не поддерживаются старые Mac с Intel Без видеокарты всё работает медленно Запускается в формате AppImage, без установки в систему

Пара слов о системных требованиях. Недавно мы готовили статью о локальных нейросетях и попробовали установить LM Studio на MacBook с чипом Intel и на Linux Mint. На MacBook программа работала, хотя официально не поддерживается. А вот на Linux она без проблем установилась, но так и не запустилась. С чем это связано — непонятно.

Подключаем первую нейросеть

Из коробки LM Studio — это просто оболочка без встроенных нейросетей. Поэтому если сразу после установки вы введёте запрос в чат, то ничего не произойдёт. Чтобы начать работу, на левой панели нажмите на значок поиска — вы попадёте в раздел Discover. В нём вы можете просмотреть список моделей с открытым исходным кодом и загрузить подходящую. Проще говоря, это маркетплейс нейросетей.

Раздел Discover в LM Studio
Скриншот: LM Studio / Skillbox Media

Для примера установим Qwen3 4B Thinking 2507 — компактную рассуждающую языковую модель от команды Qwen. Она поддерживает расширенный контекст до 256 000 токенов и подходит для многих повседневных задач: генерации и редактирования текста, написания кода, объяснения решений и ответов на вопросы. Для запуска нам понадобится 4 ГБ оперативной памяти и 3 ГБ места на диске.

Введите в поиске Qwen3-4b-thinking-2507. Если у вас macOS, то в списке версий выберите формат MLX, для других ОС — GGUF. Затем нажмите Download, дождитесь загрузки и кликните на Use in New Chat.

Устанавливаем локальную нейросеть для macOS в формате MLX
Скриншот: LM Studio / Skillbox Media

После этого откроется окно чата, где вы сможете ввести запрос для нейросети. Мы установили рассуждающую модель, поэтому перед генерацией ответа она некоторое время будет анализировать ваш запрос и подбирать оптимальный вариант. Также в чате будет отображаться цепочка рассуждений, и по ней вы сможете понять, почему нейросеть выбрала такое решение или где могла ошибиться.

Имейте в виду, что скорость ответов зависит от производительности компьютера. Например, на Windows, помимо достаточного объёма оперативной памяти, вам желательно использовать производительную видеокарту — LM Studio выгрузит в неё часть слоёв модели, чтобы ускорить генерацию. Если видеокарты нет или у неё недостаточно памяти, то вся нагрузка ляжет на процессор, и это замедлит процесс.

Пример ответа локальной модели Qwen3 4B Thinking 2507 в LM Studio
Скриншот: LM Studio / Skillbox Media

Помимо поиска, на левой боковой панели находятся значки папки и терминала. Значок с папкой открывает раздел My Models — здесь отображаются все языковые модели, которые сохранены на компьютере. Если вы выберете любую из них, то увидите имя разработчика, количество параметров, тип квантизации и размер файла. А если модель больше не нужна, то отсюда её можно удалить.

Раздел My Model в LM Studio
Скриншот: LM Studio / Skillbox Media

Значок с терминалом открывает раздел Developer. В нём вы можете просмотреть параметры запущенной модели, изучить логи и запустить сервер для подключения нейросети к другим приложениям. Также в этом разделе доступны настройки моделей: вы можете задать системный промпт, управлять инференсом и менять длину контекста.

Раздел Developer в LM Studio
Скриншот: LM Studio / Skillbox Media

Ищем лучшие языковые модели для LM Studio

В LM Studio вы можете запускать десятки языковых моделей, и ниже мы добавим несколько популярных вариантов для разных сценариев:

  • gpt-oss-20b — открытая модель от OpenAI с 20 миллиардами параметров. Будет работать на обычных ПК с 16 ГБ оперативной памяти и подойдёт тем, кто привык к стилю ответов ChatGPT.
  • gpt-oss-120b — более мощная версия со 120 миллиардами параметров, которая справляется со сложными задачами, рассуждениями и анализом больших объёмов информации. Для полноценного запуска нужна видеокарта с 80 ГБ VRAM.
  • qwen2.5-coder-14b — модель для генерации кода и подготовки технической документации. Запускается на видеокартах с 8–12 ГБ видеопамяти и на компьютерах с 16 ГБ оперативной памяти.
  • gemma-3-12b — умеет генерировать текст и код, распознавать изображения и отвечать на вопросы. Для версии с 12 миллиардами параметров потребуется около 32 ГБ оперативной памяти. Есть и другие варианты: gemma-3-1b (4 ГБ), gemma-3-4b (8 ГБ) и gemma-3-27b (64 ГБ). Если вы будете использовать сжатые версии, то последнюю модель можно запустить на 16 ГБ ОЗУ.
  • phi-4-mini-reasoning — это компактная рассуждающая модель от Microsoft с 3,8 миллиарда параметров и расширенным контекстным окном. Она хорошо справляется с логическими рассуждениями и задачами, где нужно что-то спланировать. Для запуска вам потребуется не менее 16 ГБ оперативной памяти.

Локальные модели удобнее всего искать не через поиск в LM Studio, а на портале Hugging Face — это своеобразный нейросетевой GitHub, где собраны тысячи моделей с открытым исходным кодом. В каждом репозитории есть сама нейросеть, описание её возможностей, инструкции по запуску, дообучению и настройке под разные задачи.

На сайте добавлены фильтры, через которые удобно искать модели. В них вы можете выбрать число параметров, задачи, поддерживаемые языки, адаптацию под конкретные приложения для запуска и оптимизацию под требования провайдеров. А дальше вы просто заходите в LM Studio и через поиск находите подходящую нейросеть.

Окно фильтра и список моделей на Hugging Face
Скриншот: Hugging Face / Skillbox Media

Проверяем LM Studio в повседневных задачах

Качество ответов локальных моделей сильно зависит от количества параметров нейросети — чем их больше, тем точнее и лучше сгенерированный результат. В примерах ниже мы протестируем установленную нейросеть Qwen 3 с 4 миллиардами параметров. Посмотрим, что выйдет и как она справится с программированием, поиском фактов, созданием текста и решением математических задач.

Программирование

Сначала мы попросили нейросеть создать скрипт на Python, который выводит на экран английский алфавит в формате Aa, Bb, Cc, Dd и так далее. Получился вполне рабочий код, который справляется с задачей:

Скриншот: LM Studio / Skillbox Media

Мы усложнили задачу и попросили Qwen исправить ошибку в коде. Нейросеть проанализировала проблему, предложила исправленный вариант и объяснила, почему функция не работала. Вот наш промпт:

Функция должна возвращать новый список с добавленным элементом. Почему же при нескольких вызовах элементы накапливаются? Найди и исправь ошибку.

def append_item(item, items=[]):
    items.append(item)
    return items
    
print(append_item("a"))      # ожидаешь: ["a"]
print(append_item("b"))      # ожидаешь: ["b"], а что получится?
print(append_item("c"))      # ожидаешь: ["c"], а что получится?

Ниже публикуем ответ локалочки:

Исходная ошибка в том, что список items=[] используется как ссылка по умолчанию. Это означает, что при каждом вызове функции происходит изменение одного и того же списка, а не создания нового. В результате при последующих вызовах элементы накапливаются.

Исправленный код:

def append_item(item, items=None):
    if items is None:
        items = []
    items.append(item)
    return items

Объяснение:

  • При первом вызове append_item («a») создаётся новый пустой список [], затем добавляется «a», возвращается [«a»].
  • При втором вызове append_item («b») параметр items по умолчанию None проверяется, и создаётся новый пустой список [], затем добавляется «b», возвращается [«b»].
  • При третьем вызове append_item («c») аналогично создаётся новый список [] и добавляется «c».

Таким образом, функция теперь возвращает новый список с каждым вызовом, а не накапливает элементы.

Пример работы:

print(append_item("a"))      # ["a"]
print(append_item("b"))      # ["b"]
print(append_item("c"))      # ["c"]

Поиск фактов

У нашей Qwen 3 нет доступа к веб-поиску, поэтому она способна выдумывать события и искажать информацию. Мы спросили, в каких цветах Apple выпустила iPhone 17 Pro Max. В ответ нейросеть заявила, что это будущая модель, поэтому данных о дизайне у неё пока нет.

Скриншот: LM Studio / Skillbox Media

ChatGPT без проблем отвечает на этот вопрос и приводит в качестве источника официальный сайт Apple. Не спорим — веб-поиск важен.

Скриншот: LM Studio / Skillbox Media

Генерация текста

Для теста мы попросили Qwen 3 сгенерировать поздравление с днём рождения для вымышленного друга Артёма. Чтобы усложнить задачу, мы указали, что в тексте должны быть креативные упоминания «Формулы-1» и программирования — увлечений именинника. Текст вы видите ниже, а нам остаётся лишь вручить его какому-нибудь Артёму:

Скриншот: LM Studio / Skillbox Media

Задания по математике

Возьмём сложное выражение и попросим нейросеть его упростить:

К сожалению, Qwen 3 не умеет распознавать изображения. Поэтому мы конвертировали запись в LaTeX-формат и отправили её в таком виде: \sqrt{(2\sqrt{11}-3\sqrt{5})^{2}}+\frac{2}{4\sqrt{5}+9}+\sqrt{44}-18.

Языковая модель обработала запрос за 36 секунд, подробно расписала решение и получила правильный ответ. Посмотрите результат:

Скриншот: LM Studio / Skillbox Media

Смотрим на альтернативы LM Studio

В этом разделе мы хотели сделать краткий обзор нескольких бесплатных кросс-платформенных приложений, которые по функциям похожи на LM Studio. По описанию нам подошли Ollama, GPT4All и Jan.

Мы установили эти программы и планировали загрузить в каждую из них модель Qwen3 4B Thinking 2507. Затем мы задали бы всем один вопрос: «Расскажи, чем ты лучше LM Studio?» — и показали результаты.

Однако ничего не вышло. Мы без проблем установили Qwen 3 в GPT4All и Jan, но обе программы выдавали ошибку при попытке получить ответ. В каталоге Ollama нужной модели не оказалось, поэтому мы скачали базовую gemma3:4b, которая зависла при первом запуске.

Никаких выводов из этого мы не делаем. Возможно, стоит глубже разобраться в настройках каждого сервиса, перезапустить их или попробовать другие модели. Если у вас будет желание — обязательно поэкспериментируйте. Но, если хочется начать без лишних сложностей, — в конце 2025 года мы можем порекомендовать только LM Studio.

Слева — Jan, справа вверху — GPT4All, справа внизу — Ollama. По идее, ими пользоваться так же просто, как и LM Studio. Но, видимо, не сегодня
Скриншот: Jan / GPT4All / Ollama / Skillbox Media




Нейросети. Практический курс

20 инструментов для видео, графики, текста и аудио в одном курсе. Получите бесплатный доступ и начните осваивать топовые нейросети.

Начать бесплатно →

Учитесь бесплатно: «Нейросети. Практический курс» Получить доступ
Понравилась статья?
Да

Пользуясь нашим сайтом, вы соглашаетесь с тем, что мы используем cookies 🍪

Ссылка скопирована