<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="ru">
	<id>https://support.qbpro.ru/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Vix</id>
	<title>support.qbpro.ru - Вклад [ru]</title>
	<link rel="self" type="application/atom+xml" href="https://support.qbpro.ru/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Vix"/>
	<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php/%D0%A1%D0%BB%D1%83%D0%B6%D0%B5%D0%B1%D0%BD%D0%B0%D1%8F:%D0%92%D0%BA%D0%BB%D0%B0%D0%B4/Vix"/>
	<updated>2026-05-13T18:53:22Z</updated>
	<subtitle>Вклад</subtitle>
	<generator>MediaWiki 1.38.1</generator>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=1c%2Bpostgres&amp;diff=4705</id>
		<title>1c+postgres</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=1c%2Bpostgres&amp;diff=4705"/>
		<updated>2026-05-06T00:05:35Z</updated>

		<summary type="html">&lt;p&gt;Vix: /* Установка и настройка сервера 1С 8.2 на Linux */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Установка и настройка сервера 1С 8.2 на Linux==&lt;br /&gt;
* Пример.1:&lt;br /&gt;
&lt;br /&gt;
Теперь устанавливаем 1С 8.2&amp;quot; Причины необходимости ввода именно этой версии 1С:Предпрития обсуждать не имеет смысла, так что сразу перейду к делу.&amp;lt;br&amp;gt;&lt;br /&gt;
Поступила задача установить сервер 1С 8.2 на Ubuntu 10.04 и перевести все базы на нее. Задача вполне тривиальна. Как и везде, имеются свои подводные камни и тонкости, но в сущности, нет ничего невыполнимого. По некоторым вопросам меня спас гугл, где то подсказали, а где то дошел и сам. И так, начинаем.&amp;lt;br&amp;gt;&lt;br /&gt;
Сначала Вам необходимо скачать SQL сервер. Для Unix-платформы, достойной альтернативой MSSQL для 1С, является только PostgreSQL. &lt;br /&gt;
Первый подводный камень, с которым может столкнуться начинающий администратор 1С под Linux, это СУБД PostgreSQL. Сервер Баз Данных на прочь отказывается нормально работать с 1С. Здесь есть два пути. Первый: вы ищите информацию о необходимых модулях для Postgre, затем устанавливаете и настраиваете. Второй: вы можете воспользоваться уже готовой вещицей от компании Etersoft Postgre@Etersoft. В ней все есть и как заявляет производитель, все должно завестись &amp;quot;из коробки&amp;quot;. Сейчас разберемся, так ли это.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
По [http://download.etersoft.ru/pub/Etersoft/Postgre@Etersoft/8.4.4/ ссылке], вы можете скачать рабочую и функциональную версию PostgreSQL 8.4.4 от компании Etersoft.&amp;lt;br&amp;gt;&lt;br /&gt;
Там будет необходимо просто пройти по версии вашей ОС и скачать все имеющиеся файлы.&amp;lt;br&amp;gt;&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Теперь 1С. Я выложил на Рапиду Debian-версию 1С 8.2 для x86 и x64 архитектур (архив rar. не было возможности создать другой). &lt;br /&gt;
Ок. У нас есть все, чтобы начать работу.&lt;br /&gt;
&lt;br /&gt;
Установка и настройка PostgreSQL.&lt;br /&gt;
&lt;br /&gt;
Залейте на сервер программы (если в архиве, не забудьте распаковать), затем заходите в директорию, где находится Postgre и введите команду:&lt;br /&gt;
 dpkg -i *.deb &lt;br /&gt;
&lt;br /&gt;
По окончании установки, необходимо установить размер выделяемой памяти под нужды базы данных. Делаем:&lt;br /&gt;
 nano /etc/sysctl.conf&lt;br /&gt;
В этот файл вставляете значения:&lt;br /&gt;
&lt;br /&gt;
 kernel.shmall=134217728&lt;br /&gt;
 kernel.shmmax=134217728&lt;br /&gt;
&lt;br /&gt;
Теперь применяете настройки:&lt;br /&gt;
 sysctl -p &lt;br /&gt;
&lt;br /&gt;
Обязательно убедитесь, что в папке /lib имеется файл libreadline.so.5  Если его нет, значит имеется libreadline.so.6, а это значит, что на него необходимо создать символьную ссылочку:&lt;br /&gt;
 ln -s /lib/libreadline.so.6 /lib/libreadline.so.5 &lt;br /&gt;
На всякий случай замечу, что при наличии файла libreadline.so.5, делать ссылку не надо. В представленной мной версии PostgreSQL имеется как раз нужная библиотека, но все таки обязательно проверьте.&amp;lt;br&amp;gt;&lt;br /&gt;
Теперь пора запустить Postgre:&lt;br /&gt;
 /etc/init.d/postgresql start &lt;br /&gt;
При первом запуске Postgre должен проинициализироваться и запуститься. Для того, чтобы иметь возможность подключится к СУБД (не к пользователю ОС, который создается вместе с установкой Postgre, а к пользователю с правами администратора, для управления СУБД), следует задать пароль главному пользователю СУБД - postgres, для этого в файле /var/lib/pgsql/data/pg_hba.conf найдите строку:&lt;br /&gt;
 local all all ident &lt;br /&gt;
&lt;br /&gt;
и измените ее следующим образом:&lt;br /&gt;
 local all all trust &lt;br /&gt;
&lt;br /&gt;
Это дает возможность подключится к СУБД любым локальным пользователем без пароля. Перезапустите Postgre: &lt;br /&gt;
 /etc/init.d/postgresql restart &lt;br /&gt;
&lt;br /&gt;
* Теперь установите пароль, введя команду:&lt;br /&gt;
 psql -U postgres -d template1 -c &amp;quot;ALTER USER postgres PASSWORD 'password'&amp;quot;&lt;br /&gt;
, где password (в кавычках) - пароль к пользователю.&lt;br /&gt;
Небольшое пояснение. Команда выше выполняет следующее: СУБД Postgre (psql) подключиться к базе template1 (системная база, создаваемая при установке и хранящая системные настройки) под пользователем postgres (мы ведь отключили ввод пароля для всех локальных пользователей системы, а пользователь postgres создается на локальном сервере при установке СУБД) и меняем запись в таблице ALTER пароль ('password' - кавычки обязательны) для пользователя postgres. Указанные USER и PASSWORD (заглавными буквами), это столбцы в таблице.&amp;lt;br&amp;gt;&lt;br /&gt;
После чего в pg_hba.conf меняете обратно trust на ident и еще раз перезапускаете Postgre.&amp;lt;br&amp;gt;&lt;br /&gt;
* Теперь установка 1С 8.2&amp;lt;br&amp;gt;&lt;br /&gt;
Заходите в папку, куда скинули установщик 1С и делаете:&lt;br /&gt;
 dpkg -i *.deb&lt;br /&gt;
&lt;br /&gt;
Добавляете скрипты автоматического запуска сервера 1С при старте системы:&lt;br /&gt;
 update-rc.d srv1cv82 defaults&lt;br /&gt;
&lt;br /&gt;
* Теперь необходимо установить необходимые для работы 1С локали:&lt;br /&gt;
 locale-gen en_US&lt;br /&gt;
 locale-gen ru_RU&lt;br /&gt;
 dpkg-reconfigure locales&lt;br /&gt;
&lt;br /&gt;
* Теперь заходите в папку:&lt;br /&gt;
 cd /home/usr1cv82/.1cv82/1C/1Cv82/&lt;br /&gt;
 &lt;br /&gt;
* Делаете команду: &lt;br /&gt;
 rm -r *   &lt;br /&gt;
Эта команда удалит все файлы и папки. Здесь хранятся настройки учетки (логин и пароль) администратора сервера 1С. Дело в том, что при настройке сервера 1С, будет необходимо создать Базу данных (по сути, команда просто подключает базу данных Postgre к серверу 1С, хотя, в случае если этой базы данных не существует, может и создать ее на сервере баз данных), для чего будет запрошен пароль администратора кластера. После удаления всех файлов и папок оттуда, пароль не будет запрошен и вы спокойно сможете создать своего администратора кластера со своим паролем.&lt;br /&gt;
&lt;br /&gt;
* Теперь необходимо перезагрузить сервер.&lt;br /&gt;
 reboot&lt;br /&gt;
&lt;br /&gt;
* Теория и практика настройки 1С 8.2 Сервер.&lt;br /&gt;
 &lt;br /&gt;
Теперь я расскажу об общей схеме работы специально для тех, кто делает все это впервые и ранее не администрировал сервер 1С.&lt;br /&gt;
Первое, что вам необходимо сделать, это поставить на компьютер, под управлением Windows клиентскую часть 1С, а также консоль администрирования. Первая поможет загрузить конфигурацию, настроить пользователей и т.д. Вторая поможет произвести первичную настройку кластера. В принципе, можно воспользоваться продуктом Wine@Etersoft, чтобы полностью сделать все на Linux, но по скольку разница только в настройке Wine, то я пропущу этот момент и сразу перейду к настройке Сервера 1С через консоль администрирования.&lt;br /&gt;
Запускаем консоль (Пуск --&amp;gt; Все программы --&amp;gt; 1C Предприятие 8.2 --&amp;gt; Дополнительно --&amp;gt; Администрирование серверов 1С Предприятия), нажимаем правой клавишей мыши по Central 1C:Enterprise servers --&amp;gt; Создать --&amp;gt; Центральный сервер 1С Предприятия 8.2. Там в пункте Имя вводим имя сервера или его IP адрес и нажимаем ОК.&lt;br /&gt;
Раскрыв появившуюся менюшку, нажимаем правой клавишей по пункту Кластеры --&amp;gt; Создать --&amp;gt; Кластер. Там в пункт Компьютер вводим IP адрес или имя компьютера (рекомендую всегда указывать IP адрес на случай сбоя в работе DNS) и нажимаем ОК.&lt;br /&gt;
Затем, мы видим в самом нижу пункт Администраторы. Открываем его обычным образом (правой клавишей) и создаем Администратора. Затем открываем созданый кластер и там проделываем тоже самое. Рекомендую ввести одинаковый логин и пароль для обоих администраторов. Конечно, это создает определенные проблемы с безопасностью, но зато у вас будет меньше проблем с тем, что надо вспомнить какой пароль и где был введен.&lt;br /&gt;
 &lt;br /&gt;
Теперь нажимаем правой кнопкой по пункту Рабочие серверы. Создаем новый Рабочий сервер. В пункте Компьютер вводин IP адрес компьютера, где установлен сервер 1С. После создания, внутри появляется пункт Рабочие процессы. В нем создаем Рабочий процесс и в поле Компьютер также вводим адрес сервера 1С.&lt;br /&gt;
Теперь переходим к разделу Информационные базы. Создаем Информационную базу таким образом, чтобы сведения были идентичны уже имеющейся, если она вообще есть. Иначе, полностью создаем новую базу.&lt;br /&gt;
 # Имя: вводим имя будущей базы данных&lt;br /&gt;
 # Описание: можно оставить пустым&lt;br /&gt;
 # Защищенное соединение: выбираем в соответствии с настройками вашего сервера. Я не описывал, как создать защищенное соединение, так что если вы делали 1:1 по моему описанию, значит оставляйте вариант по умолчанию (выключено)&lt;br /&gt;
 # Сервер баз данных: вводим имя компьютера или IP адрес, где установлен PostgreSQL. Предпочтителен ввод IP адреса. Причины описаны выше. Также хочу заметить, что если сервер БД находится на другом компьютере, это может серьезно замедлить работы базы, так как все данные начинают подсасываться из сети. Если сервер БД расположен там же, где сервер 1С, просто вводим 127.0.0.1&lt;br /&gt;
 # Тип СУБД: в данном описании фигурирует PostgreSQL, так что выбираем его.&lt;br /&gt;
 # База данных: Имя базы данных, созданной на сервере Postgre. Если вы не создавали никакой базы, то введите то имя, которое будете использовать. База с этим именем будет создана автоматически.&amp;lt;br&amp;gt;&lt;br /&gt;
 # Пользователь сервера БД: по умолчанию настроен postgres.&amp;lt;br&amp;gt;&lt;br /&gt;
 # Пароль пользователя БД: В пункте, как настроить пользователя администрирования БД (не путайте с Администратором кластера 1С), я рассказал, как ввести пароль к пользователю. Вот его и вводите.&amp;lt;br&amp;gt;&lt;br /&gt;
Далее пункты не трогаем, кроме одного: &amp;quot;Создать базу данных в случае ее отсутствия&amp;quot;. Ставите там галочку, если базу данных Postgre будете создавать только сейчас.&amp;lt;br&amp;gt;&lt;br /&gt;
Нажимаете ОК. Через короткое время база будет создана.&amp;lt;br&amp;gt;&lt;br /&gt;
* Теперь запускаем клиентскую часть 1С Предприятие 8.2&lt;br /&gt;
Тут мы создаем новую базу на сервере 1С Предприятие. В первом окне выбираем Добавить. Далее: Создание новой информационной базы --&amp;gt; Создание новой информационной базы без шаблона... --&amp;gt; Вводим имя записи для клиента (Все, что угодно), выбираем На сервере 1С Предприятия и нажимаем Далее.&lt;br /&gt;
# Кластер серверов 1С предприятия: вводим адрес сервера, где установлен сервер 1С Предприятие&lt;br /&gt;
# Имя информационной базы в кластере: Имя базы, которую вы создавали несколькими пунктами ранее&lt;br /&gt;
# Защищенное соединение: выбираете тот пункт, по которому у вас все настроено. Если делали 1:1 с моим описанием, то выбирайте Выключено&lt;br /&gt;
# Тип СУБД: в данном описании выбираете PostgreSQL&lt;br /&gt;
# Сервер баз данных: адрес сервера, где установлен сервер баз данных.&lt;br /&gt;
# Имя базы данных: имя базы данных Postgre.&lt;br /&gt;
# Пользователь и пароль БД: тот же, что и в предыдущем пункте по созданию базы на сервере 1С Предприятие&lt;br /&gt;
# Создать базу в случае ее отсутствия: Если вы полностью пропустили раздел, где я описывал, как создать базу данных через Консоль администрирования сервера 1С, то поставьте здесь галочку.&lt;br /&gt;
Жмем ОК и вскоре база будет создана. Теперь можете запускать конфигуратор и подключать ту конфигурацию, которая вам нужна.&lt;br /&gt;
&lt;br /&gt;
* Проблемы, с которыми я столкнулся.&lt;br /&gt;
Были и проблемы. Все они были решены вполне благополучно, но зато в очередной раз убедили меня в возможностях гугла.&lt;br /&gt;
Итак, начнем-с.&amp;lt;br&amp;gt;&lt;br /&gt;
&lt;br /&gt;
1. Проблема возникла при попытке создания Базы данных. Вот сообщение:&lt;br /&gt;
 $ rake ts:config&lt;br /&gt;
 (in /home/juke/app)&lt;br /&gt;
 Generating Configuration to /home/juke/app/config/production.sphinx.conf&lt;br /&gt;
 PGError: ERROR:  language &amp;quot;plpgsql&amp;quot; does not exist&lt;br /&gt;
 &lt;br /&gt;
Решение оказалось до крайности простым. Необходимо зайти под пользователя postgres в консоли Linux и ввести:&lt;br /&gt;
 createlang plpgsql &amp;lt;dbname&amp;gt;&lt;br /&gt;
,где &amp;lt;dbname&amp;gt; - имя базы данных, к которой подключаетесь.&lt;br /&gt;
 &lt;br /&gt;
2. Проблема возникла сразу после первой. Вот сообщение:&lt;br /&gt;
Ни один Рабочий процесс недоступен.&lt;br /&gt;
Эта ошибка означает, что в Консоли администрирования вы не создали Рабочий процесс. Для решения проблемы вернитесь вверх по этому описанию и внимательно прочтите раздел &amp;quot;Теория и практика настройки 1С 8.2 Сервер.&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
3. Проблема возникла следом за второй. Вот сообщение:&lt;br /&gt;
Введите пароль администратора кластера.&lt;br /&gt;
Эта ошибка возникает по причине того, что при установке сервера 1С, программа установки запрашивает ввод административного пароля, а при установке под Линукс - нет. Зато молча прописывает какой то свой пароль в свои настройки. Если у вас возникла эта проблема, вернитесь назад по этому описанию и внимательно прочтите раздел &amp;quot;Теперь устанавливаем 1С 8.2&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
4. Проблема возникла последней. Вот сообщение:&lt;br /&gt;
 ERROR: type modifier is not allowed type &amp;quot;mvarchar&amp;quot; at character 31&lt;br /&gt;
Ошибка возникает, когда установленный PostgreSQL не имеет всех необходимых модулей для работы с 1С Предприятием. В данном случае идет речь о модуле ICU (сайт проекта: http://site.icu-project.org/)&lt;br /&gt;
Но если вы установили PostgreSQL по версии Etersoft, то модуль имеется, в чем можно убедиться, просто попытавшись его установить. Если вы сделали все точно по данному описанию, значит все, что необходимо сделать, это перезагрузить ваш сервер, о чем было сказано выше. Ошибка должна исчезнуть.&lt;br /&gt;
Если ошибка не исчезла, то выполните следующую команду:&lt;br /&gt;
 apt-get install libicu42&lt;br /&gt;
Потом перезагрузитесь. Если не помогло, то создайте вторую БД с произвольным названием. Ошибка должна исчезнуть. Если все нормально, то удалите первую созданную вами БД и создайте заново.&lt;br /&gt;
&lt;br /&gt;
Все. Вы имеете полностью работоспособный сервер 1С Предприятие 8.2&lt;br /&gt;
&lt;br /&gt;
 [http://dojuk.livejournal.com/2682.html]http://dojuk.livejournal.com/2682.html&lt;br /&gt;
&lt;br /&gt;
==Пример.2==&lt;br /&gt;
 [http://linuxforum.ru/viewtopic.php?id=11116&amp;amp;p=12]http://linuxforum.ru/viewtopic.php?id=11116&amp;amp;p=12&lt;br /&gt;
&lt;br /&gt;
==Пример.3==&lt;br /&gt;
 [http://www.altlinux.org/1C]http://www.altlinux.org/1C&lt;br /&gt;
&lt;br /&gt;
==Пример.4==&lt;br /&gt;
 [http://www.gilev.ru/1c/81/postgresql/index.htm]http://www.gilev.ru/1c/81/postgresql/index.htm&lt;br /&gt;
&lt;br /&gt;
==Пример.5 - для Debian..==&lt;br /&gt;
Установка платформы 1С 8.2+Postgres+HASP для Debian 5.06 x64&lt;br /&gt;
&lt;br /&gt;
1) Здесь ftp://updates.etersoft.ru/pub/Etersoft/Postgres@Etersoft/stable/x86_64/Debian/5.0/ скачать файлы СУБД Postgresql стабильной версии для Debian Lenny 5.06 x64&lt;br /&gt;
postgresql-8.4eter-contrib_8.4.4-eter1.1debian_amd64.deb&lt;br /&gt;
postgresql-8.4eter-server_8.4.4-eter1.1debian_amd64.deb&lt;br /&gt;
postgresql-8.4eter_8.4.4-eter1.1debian_amd64.deb&lt;br /&gt;
libpq5.2-8.4eter_8.4.4-eter1.1debian_amd64.deb (данный пакет появился на момент написания статьи)&lt;br /&gt;
и сохраняем в папку, допустим такую /home/user/postgresql&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
2) В файле /etc/sysctl.conf увеличиваем размер рабочей памяти для Postgresql до 640 мб (можно больше, но я ограничился этим колличиством),&lt;br /&gt;
kernel.shmall=671088640 &lt;br /&gt;
kernel.shmmax=671088640&lt;br /&gt;
и применяем эти изменения коммандой sysctl -p&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
3) Устанавливаем необхадимую библиотеку для Postgresql &lt;br /&gt;
apt-get install libxslt1.1&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
4) От root устанавливаем скаченные ранее пакеты Postgresql коммандой &lt;br /&gt;
dpkg -i /home/user/postgresql/*.deb&lt;br /&gt;
&lt;br /&gt;
5) После завершения установки Postgresql стартуем СУБД&lt;br /&gt;
/etc/init.d/postgresql start&lt;br /&gt;
&lt;br /&gt;
6) Для того, чтобы иметь возможность подключится к нему следует задать пароль главному пользователю СУБД - postgres, для этого в файле /var/lib/pgsql/data/pg_hba.conf находим строку:&lt;br /&gt;
local all all ident sameuser&lt;br /&gt;
и изменяем ее следующим образом:&lt;br /&gt;
local all all trust&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
7) Это дает возможность подключится к СУБД любым локальным пользователем без пароля. Перезапускаем Postgres:&lt;br /&gt;
/etc/init.d/postgresql restart&lt;br /&gt;
&lt;br /&gt;
8) Теперь установим пароль:&lt;br /&gt;
psql -U postgres -d template1 -c &amp;quot;ALTER USER postgres PASSWORD 'password'&amp;quot;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
9) После чего в pg_hba.conf меняем обратно trust на ident sameuser и еще раз перезапускаем Postgres.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
10) Переходим в папку с дистрибутивом 1С 8.2 (в моём случае это /home/user/1c) и запускаем установку &lt;br /&gt;
dpkg -i *.deb&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
11) Изменяем владельца папки устаовки 1С 8.2, &lt;br /&gt;
chown -R usr1cv82»:grp1cv82 /opt/1C/v8.2 &lt;br /&gt;
что бы 1С могла создавать/удалять/редактировать в своей рабочей папки&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
12) Обновляем скрипты запуска 1С &lt;br /&gt;
update-rc.d srv1cv81 defaults&lt;br /&gt;
Также уточним 1С какие порты она должна слушать, также это необходимо делать если планируется запускать дви или более сервера 1С (допустим 8.0, 8.1). Для этого отредактируем файл (сценарий запуска)  /etc/init.d/srv1cv82 доведя конфигурацию до следующего вида (конфигурация и скрипт запуска 1С, расположены только в этом файле. Редактировать аккуратно)&lt;br /&gt;
#------------------------------------------------------------&lt;br /&gt;
# 1C:Enterprise server configuration parameters&lt;br /&gt;
#------------------------------------------------------------&lt;br /&gt;
&lt;br /&gt;
# 1C:Enterprise server keytab file. &lt;br /&gt;
# default - usr1cv82.keytab file in 1C:Enterprise server &lt;br /&gt;
# installation directory&lt;br /&gt;
#&lt;br /&gt;
#SRV1CV8_KEYTAB=&lt;br /&gt;
&lt;br /&gt;
# Number of the cluster port created by default during first&lt;br /&gt;
# launch of ragent&lt;br /&gt;
#&lt;br /&gt;
# default - 1540&lt;br /&gt;
#&lt;br /&gt;
#SRV1CV8_PORT=&lt;br /&gt;
SRV1CV8_PORT=1540&lt;br /&gt;
&lt;br /&gt;
# Number of cluster agent main port. This port is used by the&lt;br /&gt;
# cluster console to address the central server. Cluster agent &lt;br /&gt;
# port is also specified as the IP port of the working server.&lt;br /&gt;
#&lt;br /&gt;
# default - 1541&lt;br /&gt;
#&lt;br /&gt;
#SRV1CV8_REGPORT=&lt;br /&gt;
SRV1CV8_REGPORT=1541&lt;br /&gt;
&lt;br /&gt;
# Port range for connection pool&lt;br /&gt;
# example values:&lt;br /&gt;
# 45:49&lt;br /&gt;
# 45:67,70:72,77:90&lt;br /&gt;
#&lt;br /&gt;
# default - 1560:1691&lt;br /&gt;
#&lt;br /&gt;
#SRV1CV8_RANGE=&lt;br /&gt;
SRV1CV8_RANGE=1560:1691&lt;br /&gt;
&lt;br /&gt;
# 1C:Enterprise server configuration debug mode&lt;br /&gt;
# 0 - default - off&lt;br /&gt;
# 1 - on&lt;br /&gt;
#&lt;br /&gt;
#SRV1CV8_DEBUG=&lt;br /&gt;
&lt;br /&gt;
# Path to directory with claster data&lt;br /&gt;
# default - $HOMEDIR/.1cv82/1C/1Cv82&lt;br /&gt;
#&lt;br /&gt;
#SRV1CV8_DATA=&lt;br /&gt;
&lt;br /&gt;
# Security level:&lt;br /&gt;
# 0 - default - unprotected connections&lt;br /&gt;
# 1 - protected connections only for the time of user&lt;br /&gt;
# authentication&lt;br /&gt;
# 2 - permanently protected connections&lt;br /&gt;
#&lt;br /&gt;
#SRV1CV8_SECLEV=&lt;br /&gt;
&lt;br /&gt;
#------------------------------------------------------------&lt;br /&gt;
# end of config&lt;br /&gt;
#------------------------------------------------------------&lt;br /&gt;
&lt;br /&gt;
Всё остальное содержимое файла относятся к запуску, а не к конфигурированнию, поэтому нас не интересует.&lt;br /&gt;
&lt;br /&gt;
13) Проверяем правильность настроек &lt;br /&gt;
 /etc/init.d/srv1cv82 restart&lt;br /&gt;
&lt;br /&gt;
14) Устанавливаем необходимые для работы 1С локали: &lt;br /&gt;
locale-gen en_US &lt;br /&gt;
locale-gen ru_RU &lt;br /&gt;
dpkg-reconfigure locales &lt;br /&gt;
Убеждаемся что локаль en_US.ISO-8859-1 установлена, иначе при попытке создать ИБ в 1С получите ошибку: неверное значение для параметра &amp;quot;lc_messages&amp;quot;: &amp;quot;en_US&amp;quot;.&lt;br /&gt;
&lt;br /&gt;
15) Устанавливаем драйвера для HASP, иначе более 12 человек не смогут одновременно работать с одной информационной базой. Заходим на страницу Aladdina http://www3.safenet-inc.com/support/hasp/enduser.aspx и скачиваем нужный нам пакет - Sentinel HASP Run-time Installer Script for Linux для SuSE RedHat Ubuntu Debian, прямая ссылка на архив ftp://ftp.aladdin.com/pub/hasp/Sentinel_HASP/Linux/Sentinel_HASP_Linux_Run-time_Installer_script.tar.gz распаковываем в папку, к примеру /home/user/sential.&lt;br /&gt;
&lt;br /&gt;
16) Так как предлагаемые драйвера для архитектуры x86, необходимо установить поддержку 32х битных библиотек, в Debian это делается командой &lt;br /&gt;
apt-get install ia32-libs&lt;br /&gt;
пакет потянет за собой кучу зависимостей которые также необходимо будет скачать и установить (будет произведено в автоматическом режиме).&lt;br /&gt;
&lt;br /&gt;
17) Установим драйвера HASP, для этого перейдём в папку /home/user/sential и запускаем установку &lt;br /&gt;
./dinst&lt;br /&gt;
&lt;br /&gt;
18) Перезапускаем HASP для проверки правильности установки драйверов HASP /etc/init.d/haspd restart , вывод на экран должен быть примерно такой - &lt;br /&gt;
Running aksusbd... [ DONE ] &lt;br /&gt;
Running winehasp... [ DONE ] &lt;br /&gt;
Running hasplm... [ DONE ] &lt;br /&gt;
Running hasplmd... [ DONE ]&lt;br /&gt;
&lt;br /&gt;
19) Перезагружаем сервер и по идеи всё после этого всё должно работать. Но лучше всегда мониторить загрузку включив в настройках логирование процесса загрузки.&lt;br /&gt;
&lt;br /&gt;
[http://torishome.blogspot.com/2011/01/1-82postgreshasp-debian-506-x64.html]http://torishome.blogspot.com/2011/01/1-82postgreshasp-debian-506-x64.html&lt;br /&gt;
&lt;br /&gt;
==Полная установка на систему Linux==&lt;br /&gt;
Подробная инструкция развертывания сервера 1С на Ubuntu 10.04 LTS&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
1. Установка сервера баз данных PostgreSQL 8.4.1 из исходников с патчами от 1С&lt;br /&gt;
&lt;br /&gt;
В моем случае дистрибутив Ubuntu 10.04 Desktop 64-битный. Принципиальных отличий от сервера нет,  графическую оболочку я всеравно установливаю на сервер, ну вот просто нравится, без особой нужды.&lt;br /&gt;
&lt;br /&gt;
Итак, установил только что вышедший релиз Lucid Lynx . Беру права root и дальше практически все действия от него. Я постарался точно воспроизвести и последовательность и синтаксис команд в консоли, т.е. то, что выделено желтым фоном, можно тройным кликом мышки выделять, копировать и вставлять в командную строку. Получается полуавтоматическая установка  . Поехали, открываем терминал, и под рутом :&lt;br /&gt;
&lt;br /&gt;
locale-gen en_US&lt;br /&gt;
&lt;br /&gt;
cd /usr/local/src&lt;br /&gt;
&lt;br /&gt;
wget http://wwwmaster.postgresql.org/redir/295/h/source/v8.4.1/postgresql-8.4.1.tar.gz&lt;br /&gt;
&lt;br /&gt;
tar -xzvf postgresql-8.4.1.tar.gz&lt;br /&gt;
&lt;br /&gt;
cd postgresql-8.4.1&lt;br /&gt;
&lt;br /&gt;
mkdir patches&lt;br /&gt;
&lt;br /&gt;
cd patches&lt;br /&gt;
&lt;br /&gt;
wget http://v8.1c.ru/overview/postgresql_patches/8-4-1/1c_FULL_84-0.19.2.patch&lt;br /&gt;
&lt;br /&gt;
wget http://v8.1c.ru/overview/postgresql_patches/8-4-1/postgresql-1c-8.4.patch&lt;br /&gt;
&lt;br /&gt;
wget http://v8.1c.ru/overview/postgresql_patches/8-4-1/applock-1c-8.4.1.patch&lt;br /&gt;
&lt;br /&gt;
aptitude install libreadline-dev zlib1g-dev libicu-dev patch unrar &lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
ln -s /usr/lib/libicuio.so.42.1 /usr/lib/libicuio.so.34&lt;br /&gt;
&lt;br /&gt;
ln -s /usr/lib/libicui18n.so.42.1 /usr/lib/libicui18n.so.34&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
patch -d .. -p0 &amp;lt;1c_FULL_84-0.19.2.patch&lt;br /&gt;
&lt;br /&gt;
patch -d .. -p0 &amp;lt;applock-1c-8.4.1.patch&lt;br /&gt;
&lt;br /&gt;
patch -d .. -p1 &amp;lt;postgresql-1c-8.4.patch&lt;br /&gt;
&lt;br /&gt;
cd /usr/local/src/postgresql-8.4.1/src/interfaces/ecpg/preproc/&lt;br /&gt;
&lt;br /&gt;
rm preproc.h&lt;br /&gt;
&lt;br /&gt;
wget http://pg1c.ru/down/preproc.h&lt;br /&gt;
&lt;br /&gt;
cd /usr/local/src/postgresql-8.4.1/src/backend/parser/&lt;br /&gt;
&lt;br /&gt;
rm gram.h&lt;br /&gt;
&lt;br /&gt;
wget http://pg1c.ru/down/gram.h&lt;br /&gt;
&lt;br /&gt;
cd /usr/local/src/postgresql-8.4.1/&lt;br /&gt;
&lt;br /&gt;
Теперь все готово к компиляции&lt;br /&gt;
&lt;br /&gt;
./configure --disable-integer-datetimes --prefix=/usr&lt;br /&gt;
&lt;br /&gt;
make &amp;amp;&amp;amp; make install&lt;br /&gt;
&lt;br /&gt;
cd contrib&lt;br /&gt;
&lt;br /&gt;
make &amp;amp;&amp;amp; make install&lt;br /&gt;
&lt;br /&gt;
 Создаем пользователя и группу postgres&lt;br /&gt;
&lt;br /&gt;
mkdir /var/lib/pgsql&lt;br /&gt;
&lt;br /&gt;
groupadd -g 5026 -o -r postgres&lt;br /&gt;
&lt;br /&gt;
useradd -g postgres -o -r -d /var/lib/pgsql -s /bin/bash -c \ &amp;quot;PostgreSQL Server&amp;quot; -u 5026 postgres&lt;br /&gt;
&lt;br /&gt;
chown postgres:postgres /var/lib/pgsql&lt;br /&gt;
&lt;br /&gt;
Инициализируем базу и установим пароль для postgres. На 32-битно машине может потребоваться сделать&lt;br /&gt;
&lt;br /&gt;
echo 134217728 &amp;gt;/proc/sys/kernel/shmmax &lt;br /&gt;
echo 134217728 &amp;gt;/proc/sys/kernel/shmall&lt;br /&gt;
&lt;br /&gt;
И чтобы руками их постоянно не менять,впишем их значения в sysctl.conf&lt;br /&gt;
&lt;br /&gt;
echo kernel.shmmax=134217728 &amp;gt;&amp;gt;/etc/sysctl.conf&lt;br /&gt;
echo kernel.shmall=134217728 &amp;gt;&amp;gt;/etc/sysctl.conf&lt;br /&gt;
&lt;br /&gt;
Инициализация от пользователя postgres&lt;br /&gt;
&lt;br /&gt;
su postgres&lt;br /&gt;
&lt;br /&gt;
initdb -D /var/lib/pgsql/data&lt;br /&gt;
&lt;br /&gt;
pg_ctl -D /var/lib/pgsql/data start&lt;br /&gt;
&lt;br /&gt;
psql&lt;br /&gt;
&lt;br /&gt;
\password&lt;br /&gt;
&lt;br /&gt;
\\дважды вводим пароль для пользователя базы данных postgres&lt;br /&gt;
&lt;br /&gt;
\q&lt;br /&gt;
&lt;br /&gt;
pg_ctl -D /var/lib/pgsql/data stop&lt;br /&gt;
&lt;br /&gt;
exit&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
Отредактируем pg_hba.conf&lt;br /&gt;
&lt;br /&gt;
nano /var/lib/pgsql/data/pg_hba.conf&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
#host    all         all         127.0.0.1/32          trust // так было&lt;br /&gt;
host    all         postgres         127.0.0.1/32       md5 // так стало&lt;br /&gt;
&lt;br /&gt;
дали разрешение пользователю postgres с локального хоста коннектиться с любой базой , при этом требуется пароль.&lt;br /&gt;
&lt;br /&gt;
Теперь необязательное редактирование postgresql.conf . Значения , устанавливаемые в этом файле зависят от многих факторов и собственно служат для настройки оптимальной производительности.&lt;br /&gt;
&lt;br /&gt;
nano /var/lib/pgsql/data/postgresql.conf&lt;br /&gt;
&lt;br /&gt;
listen_addresses = ‘127.0.0.1′    //если соединения с базой будут только с локального хоста, то надежнее сделать именно так, чтобы порт 5432 слушался только на адресе 127.0.0.1&lt;br /&gt;
&lt;br /&gt;
fsync = off     //значение on сильно снижает производительность, поскольку все транзакции непосредственно пишутся на жесткий диск без использования кэширования, но повышается надежность. Значение off есть смысл устанавливать, когда установлены надежные диски и надежный же UPS .&lt;br /&gt;
&lt;br /&gt;
effective_cache_size = 2048MB       //На моем компьютере 4Гб ОЗУ, поэтому я предположил, что этот параметр надо выставить в половину ОЗУ, как рекомендует 1С для постгреса 8.2&lt;br /&gt;
&lt;br /&gt;
work_mem = 16MB      //Насколько я понимаю, этот параметр зависит от среднего размера таблиц, в любом случае, для тонкой настройки надо тестировать на конкретном сервере с конкретной базой.&lt;br /&gt;
&lt;br /&gt;
Создадим простой скрипт для запуска сервера баз данных при старте системы.&lt;br /&gt;
&lt;br /&gt;
nano /etc/init.d/postgres&lt;br /&gt;
&lt;br /&gt;
вот такого содержания :&lt;br /&gt;
&lt;br /&gt;
#!/bin/sh&lt;br /&gt;
case $1 in&lt;br /&gt;
restart)&lt;br /&gt;
sudo -u postgres -H /usr/bin/pg_ctl -D /var/lib/pgsql/data -l /var/lib/pgsql/data/pg.log stop&lt;br /&gt;
sudo -u postgres -H /usr/bin/pg_ctl -D /var/lib/pgsql/data -l /var/lib/pgsql/data/pg.log start&lt;br /&gt;
;;&lt;br /&gt;
start)&lt;br /&gt;
sudo -u postgres -H /usr/bin/pg_ctl -D /var/lib/pgsql/data -l /var/lib/pgsql/data/pg.log start&lt;br /&gt;
;;&lt;br /&gt;
stop)&lt;br /&gt;
sudo -u postgres -H /usr/bin/pg_ctl -D /var/lib/pgsql/data -l /var/lib/pgsql/data/pg.log stop&lt;br /&gt;
;;&lt;br /&gt;
*)&lt;br /&gt;
echo start|stop|restart&lt;br /&gt;
return 1;&lt;br /&gt;
;;&lt;br /&gt;
esac&lt;br /&gt;
&lt;br /&gt;
 chmod u+x /etc/init.d/postgres&lt;br /&gt;
&lt;br /&gt;
update-rc.d postgres defaults&lt;br /&gt;
&lt;br /&gt;
Рискнем рестартовать сервер и проверим запустится ли постгрес.&lt;br /&gt;
&lt;br /&gt;
У меня запустился &lt;br /&gt;
&lt;br /&gt;
root@atec-itx:~# netstat -atn|grep 5432&lt;br /&gt;
tcp        0      0 127.0.0.1:5432          0.0.0.0:*               LISTEN&lt;br /&gt;
&lt;br /&gt;
Первый этап на этом закончен.&lt;br /&gt;
&lt;br /&gt;
2. Установка сервера 1cv82&lt;br /&gt;
&lt;br /&gt;
Здесь не должно возникнуть сложностей с установкой. Я скачал rar-архив с deb-пакетами версии 8.2.10-82_amd64 , распаковал в каталог /usr/local/srv1c  . Вот эти пакеты&lt;br /&gt;
&lt;br /&gt;
1c-enterprise82-common_8.2.10-82_amd64.deb&lt;br /&gt;
1c-enterprise82-common-nls_8.2.10-82_amd64.deb&lt;br /&gt;
1c-enterprise82-server_8.2.10-82_amd64.deb&lt;br /&gt;
1c-enterprise82-server-nls_8.2.10-82_amd64.deb&lt;br /&gt;
1c-enterprise82-ws_8.2.10-82_amd64.deb&lt;br /&gt;
1c-enterprise82-ws-nls_8.2.10-82_amd64.deb&lt;br /&gt;
cd /usr/local/src/srv1c&lt;br /&gt;
&lt;br /&gt;
dpkg -i *.deb&lt;br /&gt;
&lt;br /&gt;
update-rc.d srv1cv82 defaults&lt;br /&gt;
&lt;br /&gt;
Среди установленных файлов будет утилита config_server , она лежит в /opt/1C/v8.2/x86_64/utils&lt;br /&gt;
&lt;br /&gt;
cd /opt/1C/v8.2/x86_64/utils&lt;br /&gt;
&lt;br /&gt;
./config_server&lt;br /&gt;
&lt;br /&gt;
Скорее всего ответ будет таким&lt;br /&gt;
&lt;br /&gt;
Can not detect font directory, please specify it!&lt;br /&gt;
&lt;br /&gt;
не обнаружен каталог с нужными шрифтами. Ну у нас его и нет &lt;br /&gt;
&lt;br /&gt;
aptitude install ttf-mscorefonts-installer  //без MS дороги в будущее нет &lt;br /&gt;
&lt;br /&gt;
Опять запустим утилиту&lt;br /&gt;
&lt;br /&gt;
./config_server&lt;br /&gt;
&lt;br /&gt;
No truetype conversion utility found!&lt;br /&gt;
Please install ttf2afm or ttf2pt1!&lt;br /&gt;
&lt;br /&gt;
aptitude install t1utils libt1-5&lt;br /&gt;
&lt;br /&gt;
wget http://altruistic.lbl.gov/mirrors/ubuntu/pool/universe/t/ttf2pt1/ttf2pt1_3.4.4-1.1_amd64.deb&lt;br /&gt;
&lt;br /&gt;
dpkg -i ttf2pt1/ttf2pt1_3.4.4-1.1_amd64.deb&lt;br /&gt;
&lt;br /&gt;
И еще раз&lt;br /&gt;
&lt;br /&gt;
./config_server&lt;br /&gt;
&lt;br /&gt;
если надолго задумался, значит мы его победили &lt;br /&gt;
&lt;br /&gt;
Кажется все, рестартуем нашу  убунту, чтобы убедиться, что и постгрес и 1С-сервер запускаются при старте системы.&lt;br /&gt;
&lt;br /&gt;
netstat -atn|grep 0.0.0.0:15&lt;br /&gt;
&lt;br /&gt;
должны увидеть что-то типа&lt;br /&gt;
&lt;br /&gt;
tcp        0      0 0.0.0.0:1560            0.0.0.0:*               LISTEN     &lt;br /&gt;
tcp        0      0 0.0.0.0:1561            0.0.0.0:*               LISTEN     &lt;br /&gt;
tcp        0      0 0.0.0.0:1562            0.0.0.0:*               LISTEN     &lt;br /&gt;
tcp        0      0 0.0.0.0:1563            0.0.0.0:*               LISTEN     &lt;br /&gt;
tcp        0      0 0.0.0.0:1540            0.0.0.0:*               LISTEN     &lt;br /&gt;
tcp        0      0 0.0.0.0:1541            0.0.0.0:*               LISTEN&lt;br /&gt;
&lt;br /&gt;
если так, то идем дальше, нет, ищем ошибки и устраняем.&lt;br /&gt;
&lt;br /&gt;
3. Установка http-сервера apache&lt;br /&gt;
&lt;br /&gt;
Очевидно, что без вэб-сервера нельзя реализовать новые возможности 1С:Предприятия версии 8.2 . Поэтому ставим apache.&lt;br /&gt;
&lt;br /&gt;
 aptitude install apache2&lt;br /&gt;
&lt;br /&gt;
 все, апач установлен и уже работает  , проверьте зайдя браузером по адресу&lt;br /&gt;
&lt;br /&gt;
http://127.0.0.1/&lt;br /&gt;
&lt;br /&gt;
если вэб-сервер не планируется использовать для других целей, то он готов к работе с 1с.&lt;br /&gt;
&lt;br /&gt;
Теперь создадим первую базу 1с на нашем сервере. Предварительно дадим команду&lt;br /&gt;
&lt;br /&gt;
hostname&lt;br /&gt;
&lt;br /&gt;
и полученное имя и IP адрес сервера впишем на виндовсе в C:\Windows\system32\drivers\etc\hosts&lt;br /&gt;
&lt;br /&gt;
что-то типа&lt;br /&gt;
&lt;br /&gt;
192.168.1.14     srv1c&lt;br /&gt;
&lt;br /&gt;
Через оснастку управления серверами 1с создаем центральный сервер, а далее как обычно, добавляем базу на сервере. Примерно так надо заполнить окно создания базы на сервере&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Здесь&lt;br /&gt;
&lt;br /&gt;
srv1c – имя нашего сервера, совпадающее с hostname&lt;br /&gt;
&lt;br /&gt;
erste  -  имя создаваемой базы. (Не создавайте себе проблем, придумывая имена с русскими символами.)&lt;br /&gt;
&lt;br /&gt;
Запомним строку подключения  Srvr=&amp;quot;srv1c&amp;quot;;Ref=&amp;quot;erste&amp;quot;;&lt;br /&gt;
&lt;br /&gt;
 Идем в любимый терминал под рутом.&lt;br /&gt;
&lt;br /&gt;
mkdir /var/www/erste&lt;br /&gt;
&lt;br /&gt;
/opt/1C/v8.2/x86_64/webinst -apache22 -wsdir erste -dir '/var/www/erste/' -connStr 'Srvr=&amp;quot;srv1c&amp;quot;;Ref=&amp;quot;erste&amp;quot;;' -confPath /etc/apache2/httpd.conf&lt;br /&gt;
&lt;br /&gt;
Заметьте одинаковость текста с голубым фоном.&lt;br /&gt;
&lt;br /&gt;
Если будете копировать строку с командой webinst отсюда и получите ошибку, поменяйте все одинарные кавычки на апострофы (Буква Э рядом с Enter)&lt;br /&gt;
&lt;br /&gt;
Убедимся в правильности внесенных изменений&lt;br /&gt;
&lt;br /&gt;
nano /etc/apache2/httpd.conf&lt;br /&gt;
&lt;br /&gt;
LoadModule _1cws_module &amp;quot;/opt/1C/v8.2/x86_64/wsap22.so&amp;quot;&lt;br /&gt;
&lt;br /&gt;
# 1c publication&lt;br /&gt;
Alias &amp;quot;/erste&amp;quot; &amp;quot;/var/www/erste/&amp;quot;&lt;br /&gt;
&amp;lt;Directory &amp;quot;/var/www/erste/&amp;quot;&amp;gt;&lt;br /&gt;
    AllowOverride None&lt;br /&gt;
    Options None&lt;br /&gt;
    Order allow,deny&lt;br /&gt;
    Allow from all&lt;br /&gt;
    SetHandler 1c-application&lt;br /&gt;
    ManagedApplicationDescriptor &amp;quot;/var/www/erste/default.vrd&amp;quot;&lt;br /&gt;
&amp;lt;/Directory&amp;gt;&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
Теперь посмотрим что вписалось в файле default.vrd&lt;br /&gt;
&lt;br /&gt;
nano /var/www/erste/default.vrd&lt;br /&gt;
&lt;br /&gt;
&amp;lt;?xml version=&amp;quot;1.0&amp;quot; encoding=&amp;quot;UTF-8&amp;quot;?&amp;gt;&lt;br /&gt;
&amp;lt;point xmlns=&amp;quot;http://v8.1c.ru/8.2/virtual-resource-system&amp;quot;&lt;br /&gt;
                xmlns:xs=&amp;quot;http://www.w3.org/2001/XMLSchema&amp;quot;&lt;br /&gt;
                xmlns:xsi=&amp;quot;http://www.w3.org/2001/XMLSchema-instance&amp;quot;&lt;br /&gt;
                base=&amp;quot;/erste&amp;quot;&lt;br /&gt;
                ib=&amp;quot;Srvr=&amp;amp;quot;srv1c&amp;amp;quot;;Ref=&amp;amp;quot;erste&amp;amp;quot;;&amp;quot;/&amp;gt;&lt;br /&gt;
&lt;br /&gt;
Опять обратите внимание на выделенное голубым, здесь кавычки заменены их представлением в HTML &amp;amp;quot;&lt;br /&gt;
&lt;br /&gt;
chown -R www-data:www-data /var/www/erste&lt;br /&gt;
&lt;br /&gt;
Отключаем в браузере блокировку всплывающих окон, иначе мы ничего не увидим. Рестартуем апач&lt;br /&gt;
&lt;br /&gt;
/etc/init.d/apache2 restart&lt;br /&gt;
&lt;br /&gt;
и заходим браузером на адрес&lt;br /&gt;
&lt;br /&gt;
http://127.0.0.1/erste/&lt;br /&gt;
&lt;br /&gt;
получаем&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
т.о. переходим к следующему пункту установки сервера&lt;br /&gt;
&lt;br /&gt;
4. Установка драйвера HASP с менеджером лицензий&lt;br /&gt;
&lt;br /&gt;
aptitude install ia32-libs&lt;br /&gt;
&lt;br /&gt;
cd /usr/local/src&lt;br /&gt;
&lt;br /&gt;
wget ftp://ftp.aladdin.com/pub/hasp/srm/Linux/HASP_SRM_LINUX_3.50_Run-time_Installer_script.tar.gz&lt;br /&gt;
&lt;br /&gt;
Распаковываем&lt;br /&gt;
&lt;br /&gt;
tar xzf HASP_SRM_LINUX_3.50_Run-time_Installer_script.tar.gz&lt;br /&gt;
&lt;br /&gt;
cd HASP_SRM_LINUX_3.50_Run-time_Installer_script&lt;br /&gt;
&lt;br /&gt;
./dinst .       //не забудьте про точки в начале и конце строки (это для нелинуксоидов &lt;br /&gt;
&lt;br /&gt;
До недавнего времени с usb-драйвером hasp в ubuntu 10.04 была проблема. Решилось установкой  дополнения к драйверу от etersoft&lt;br /&gt;
&lt;br /&gt;
 &lt;br /&gt;
&lt;br /&gt;
cd /usr/local/src&lt;br /&gt;
&lt;br /&gt;
wget http://ftp.etersoft.ru/pub/Etersoft/HASP/3.2/x86_64/Ubuntu/10.04/haspd_3.2-eter1ubuntu_amd64.deb&lt;br /&gt;
&lt;br /&gt;
dpkg -i haspd_3.2-eter1ubuntu_amd64.deb&lt;br /&gt;
&lt;br /&gt;
 Кроме того, что это дополнение решает проблему usbfs монтированием /dev/bus в /proc/bus  , еще и позволяет ограничивать доступ к лицензиям 1С в файле /etc/haspd/hasplm.conf например :&lt;br /&gt;
&lt;br /&gt;
NHS_IP_LIMIT = 127.0.*.*, 192.168.1.*&lt;br /&gt;
&lt;br /&gt;
Вот теперь , кажется все готово. Для полной уверенности рестартуем наш Ubuntu-сервер и опять пробуем зайти по адресу&lt;br /&gt;
&lt;br /&gt;
http://127.0.0.1/erste/&lt;br /&gt;
&lt;br /&gt;
'''ПОЛЕЗНОЕ'''&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://serveradmin.ru/ustanovka-i-nastrojka-1s-na-debian-s-postgresql/#Nastrojka_PostgreSQL_dla_raboty_s_1S Установка и настройка 1С на Debian с PostgreSQL]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=NVIDIA:_%D0%9D%D0%B5_%D1%83%D0%B4%D0%B0%D0%BB%D0%BE%D1%81%D1%8C_%D0%BE%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B8%D1%82%D1%8C_%D0%B4%D0%B5%D1%81%D0%BA%D1%80%D0%B8%D0%BF%D1%82%D0%BE%D1%80_%D1%83%D1%81%D1%82%D1%80%D0%BE%D0%B9%D1%81%D1%82%D0%B2%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%B3%D1%80%D0%B0%D1%84%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%BE%D0%B3%D0%BE_%D0%BF%D1%80%D0%BE%D1%86%D0%B5%D1%81%D1%81%D0%BE%D1%80%D0%B0_0000:02:00.0:_%D0%9D%D0%B5%D0%B8%D0%B7%D0%B2%D0%B5%D1%81%D1%82%D0%BD%D0%B0%D1%8F_%D0%BE%D1%88%D0%B8%D0%B1%D0%BA%D0%B0&amp;diff=4704</id>
		<title>NVIDIA: Не удалось определить дескриптор устройства для графического процессора 0000:02:00.0: Неизвестная ошибка</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=NVIDIA:_%D0%9D%D0%B5_%D1%83%D0%B4%D0%B0%D0%BB%D0%BE%D1%81%D1%8C_%D0%BE%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B8%D1%82%D1%8C_%D0%B4%D0%B5%D1%81%D0%BA%D1%80%D0%B8%D0%BF%D1%82%D0%BE%D1%80_%D1%83%D1%81%D1%82%D1%80%D0%BE%D0%B9%D1%81%D1%82%D0%B2%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%B3%D1%80%D0%B0%D1%84%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%BE%D0%B3%D0%BE_%D0%BF%D1%80%D0%BE%D1%86%D0%B5%D1%81%D1%81%D0%BE%D1%80%D0%B0_0000:02:00.0:_%D0%9D%D0%B5%D0%B8%D0%B7%D0%B2%D0%B5%D1%81%D1%82%D0%BD%D0%B0%D1%8F_%D0%BE%D1%88%D0%B8%D0%B1%D0%BA%D0%B0&amp;diff=4704"/>
		<updated>2026-05-05T01:43:29Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;1.Перезагрузка вернет графический процессор на корневую шину, но некоторые процессы машинного обучения все равно будут иногда снова отключать его;&amp;lt;br&amp;gt;&lt;br /&gt;
2.Запуск команды мониторинга устройства:&lt;br /&gt;
 nvidia-smi dmon -i 0 -s puv -d 5 -o TD&lt;br /&gt;
2.1 (откройте терминал, выполните эту команду и наблюдайте за логами в реальном времени) оказался полезным для отслеживания температуры, использования памяти, а также нарушений, связанных с питанием и температурой.&amp;lt;br&amp;gt;&lt;br /&gt;
2.3 Это позволило исключить температуру как причину, но выявило проблемы с питанием;&amp;lt;br&amp;gt;&lt;br /&gt;
3.Переустановка видеокарт и повторное подключение питания «решили» проблему. Тем не менее, хотя сбоев больше нет, по-прежнему наблюдаются нарушения электропитания, что наводит меня на мысль, что либо мой блок питания начинает выходить из строя, либо видеокарта.&amp;lt;br&amp;gt;&lt;br /&gt;
* Дело в том, что графические процессоры довольно чувствительны к таким факторам, как напряжение, поскольку оно влияет на поток данных, который должен быть очень точным при тактовых частотах, на которых работают графические процессоры. Факторы, оказывающие значительное влияние на напряжение, включают:&lt;br /&gt;
&lt;br /&gt;
* состояние графического процессора&lt;br /&gt;
* температура графического процессора&lt;br /&gt;
* состояние блока питания&lt;br /&gt;
&lt;br /&gt;
* [https://forums.developer.nvidia.com/t/unable-to-determine-the-device-handle-for-gpu-000000-0-unknown-error/197974/17 Источник]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=NVIDIA:_%D0%9D%D0%B5_%D1%83%D0%B4%D0%B0%D0%BB%D0%BE%D1%81%D1%8C_%D0%BE%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B8%D1%82%D1%8C_%D0%B4%D0%B5%D1%81%D0%BA%D1%80%D0%B8%D0%BF%D1%82%D0%BE%D1%80_%D1%83%D1%81%D1%82%D1%80%D0%BE%D0%B9%D1%81%D1%82%D0%B2%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%B3%D1%80%D0%B0%D1%84%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%BE%D0%B3%D0%BE_%D0%BF%D1%80%D0%BE%D1%86%D0%B5%D1%81%D1%81%D0%BE%D1%80%D0%B0_0000:02:00.0:_%D0%9D%D0%B5%D0%B8%D0%B7%D0%B2%D0%B5%D1%81%D1%82%D0%BD%D0%B0%D1%8F_%D0%BE%D1%88%D0%B8%D0%B1%D0%BA%D0%B0&amp;diff=4703</id>
		<title>NVIDIA: Не удалось определить дескриптор устройства для графического процессора 0000:02:00.0: Неизвестная ошибка</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=NVIDIA:_%D0%9D%D0%B5_%D1%83%D0%B4%D0%B0%D0%BB%D0%BE%D1%81%D1%8C_%D0%BE%D0%BF%D1%80%D0%B5%D0%B4%D0%B5%D0%BB%D0%B8%D1%82%D1%8C_%D0%B4%D0%B5%D1%81%D0%BA%D1%80%D0%B8%D0%BF%D1%82%D0%BE%D1%80_%D1%83%D1%81%D1%82%D1%80%D0%BE%D0%B9%D1%81%D1%82%D0%B2%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%B3%D1%80%D0%B0%D1%84%D0%B8%D1%87%D0%B5%D1%81%D0%BA%D0%BE%D0%B3%D0%BE_%D0%BF%D1%80%D0%BE%D1%86%D0%B5%D1%81%D1%81%D0%BE%D1%80%D0%B0_0000:02:00.0:_%D0%9D%D0%B5%D0%B8%D0%B7%D0%B2%D0%B5%D1%81%D1%82%D0%BD%D0%B0%D1%8F_%D0%BE%D1%88%D0%B8%D0%B1%D0%BA%D0%B0&amp;diff=4703"/>
		<updated>2026-05-05T01:41:53Z</updated>

		<summary type="html">&lt;p&gt;Vix: Новая страница: «1.Перезагрузка вернет графический процессор на корневую шину, но некоторые процессы машинного обучения все равно будут иногда снова отключать его; 2.Запуск команды мониторинга устройства “nvidia-smi dmon -i 0 -s puv -d 5 -o TD” (откройте терминал, выполните эту коман...»&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;1.Перезагрузка вернет графический процессор на корневую шину, но некоторые процессы машинного обучения все равно будут иногда снова отключать его;&lt;br /&gt;
2.Запуск команды мониторинга устройства “nvidia-smi dmon -i 0 -s puv -d 5 -o TD” (откройте терминал, выполните эту команду и наблюдайте за логами в реальном времени) оказался полезным для отслеживания температуры, использования памяти, а также нарушений, связанных с питанием и температурой. Это позволило исключить температуру как причину, но выявило проблемы с питанием;&lt;br /&gt;
3.Переустановка видеокарт и повторное подключение питания «решили» проблему. Тем не менее, хотя сбоев больше нет, по-прежнему наблюдаются нарушения электропитания, что наводит меня на мысль, что либо мой блок питания начинает выходить из строя, либо видеокарта.&lt;br /&gt;
* Дело в том, что графические процессоры довольно чувствительны к таким факторам, как напряжение, поскольку оно влияет на поток данных, который должен быть очень точным при тактовых частотах, на которых работают графические процессоры. Факторы, оказывающие значительное влияние на напряжение, включают:&lt;br /&gt;
&lt;br /&gt;
* состояние графического процессора&lt;br /&gt;
* температура графического процессора&lt;br /&gt;
* состояние блока питания&lt;br /&gt;
&lt;br /&gt;
* [https://forums.developer.nvidia.com/t/unable-to-determine-the-device-handle-for-gpu-000000-0-unknown-error/197974/17 Источник]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=NVIDIA_TESLA_P40_24Gb&amp;diff=4702</id>
		<title>NVIDIA TESLA P40 24Gb</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=NVIDIA_TESLA_P40_24Gb&amp;diff=4702"/>
		<updated>2026-05-05T01:34:20Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
* [https://wvthoog.nl/proxmox-7-vgpu-v2/ Proxmox 7 vGPU – v2]&lt;br /&gt;
* [https://www.tune-it.ru/web/ifsolo/blog/-/blogs/razblokirovka-vgpu-na-pol-zovatel-skih-videokartah-nvidia Разблокировка vGPU на пользовательских видеокартах NVIDIA]&lt;br /&gt;
* [https://docs.virtuozzo.com/virtuozzo_hybrid_infrastructure_4_7_admins_guide/index.html#preparing-nodes-gpu-passthrough.html Administrator Guide]&lt;br /&gt;
* [https://pve.proxmox.com/wiki/NVIDIA_vGPU_on_Proxmox_VE NVIDIA vGPU on Proxmox VE]&lt;br /&gt;
* [https://www.derekseaman.com/2024/07/proxmox-ve-8-2-windows-11-vgpu-vt-d-passthrough-with-intel-alder-lake.html Proxmox VE 8.2: Windows 11 vGPU (VT-d) Passthrough with Intel Alder Lake]&lt;br /&gt;
* [https://set.ogorodguru.ru/nvidia-grid-vgpu-linux/ Nvidia grid vgpu linux]&lt;br /&gt;
* [https://www.alibabacloud.com/help/en/egs/user-guide/use-cloud-assistant-to-automatically-install-and-upgrade-grid-drivers?spm=a2c63.p38356.help-menu-155040.d_1_5_2_1.19a1463afUkaci Install the GRID driver on a vGPU-accelerated Linux instance]&lt;br /&gt;
* [https://www.tune-it.ru/web/ifsolo/blog/-/blogs/razblokirovka-vgpu-na-pol-zovatel-skih-videokartah-nvidia Разблокировка vGPU на пользовательских видеокартах NVIDIA]&lt;br /&gt;
* [[Особенности управления NVIDIA P40 с помощью mdevctl]]&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://github.com/ProTechEx/vgpu-proxmox#nvidia-driver NVIDIA vGPU on Proxmox]&lt;br /&gt;
* [https://files.nvidia.space/Drivers/ nvidia.space/Drivers]&lt;br /&gt;
* [https://cloud.google.com/compute/docs/gpus/grid-drivers-table grid-drivers-table]&lt;br /&gt;
* [https://git.collinwebdesigns.de/oscar.krause/fastapi-dls Minimal Delegated License Service (DLS).]&lt;br /&gt;
* [https://github.com/koldunchik1986/NVIDIA-Patch2 Linux NVIDIA Driver Patcher]&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://archive.org/details/nvidiagpuarchive NVIDIA vGPU Archive]&lt;br /&gt;
* [https://github.com/NVIDIA/cuda-gdb/releases cuda-toolkit]&lt;br /&gt;
* [https://developer.nvidia.com/cuda-12-2-0-download-archive?target_os=Linux&amp;amp;target_arch=x86_64&amp;amp;Distribution=Debian&amp;amp;target_version=11&amp;amp;target_type=deb_local  CUDA Toolkit 12.2 Downloads]&lt;br /&gt;
* [https://distro.ibiblio.org/debian/pool/non-free/n/nvidia-graphics-drivers-tesla-535/ nvidia-graphics-drivers-tesla-535]&lt;br /&gt;
* [https://pve.proxmox.com/wiki/PCI_Passthrough#GPU_passthrough PCI Passthrough - Это сборник примеров, обходных путей, хаков и конкретных проблем, связанных со сквозной передачей PCI(e)]&lt;br /&gt;
* [https://github.com/lucacri/nvidia-mobo-fan-control управление вентилятором на матплате]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=Proxmox&amp;diff=4701</id>
		<title>Proxmox</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=Proxmox&amp;diff=4701"/>
		<updated>2026-04-28T21:11:59Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Установка Proxmox в Debian==&lt;br /&gt;
* [http://serveradmin.ru/ustanovka-i-nastroyka-proxmox/ Установка Proxmox в Debian на raid 1]&lt;br /&gt;
* [https://pve.proxmox.com/wiki/Install_Proxmox_VE_on_Debian_12_Bookworm Install Proxmox VE on Debian 12 Bookworm]&lt;br /&gt;
&lt;br /&gt;
==Экстренная остановка LXC==&lt;br /&gt;
 pct unlock 101&lt;br /&gt;
 lxc-stop --name 101&lt;br /&gt;
 ps ax | grep lxc&lt;br /&gt;
* [https://tweenpath.net/force-stop-proxmox-lxc/ источник]&lt;br /&gt;
&lt;br /&gt;
==Экстренная остановка VM==&lt;br /&gt;
 qm list --full&lt;br /&gt;
 rm /run/lock/qemu-server/lock-101.conf &lt;br /&gt;
 qm stop 101&lt;br /&gt;
&lt;br /&gt;
==Проброс директории с хоста в контейнер LXC под управлением Proxmox==&lt;br /&gt;
* Это работает не только для обычных директорий на хосте, но и для примонтированных внешних хранилищах (USB HDD, GlusterFS, etc.)&lt;br /&gt;
Просто даем команду на хосте через SSH (при потушенном контейнере):&lt;br /&gt;
 pct set 114 -mp0 /mnt/disk1,mp=/disk1&lt;br /&gt;
Где:&lt;br /&gt;
 114 - ID контейнера.&lt;br /&gt;
 -mp0 - внутреннее имя точки монтирования. Proxmox дает выбрать от mp0 до mp7.&lt;br /&gt;
 /mnt/disk1 - точка монтирования дисков в хостовой системе.&lt;br /&gt;
 /disk1 - путь в контейнере, куда будет примонтирован диск с корзины.&lt;br /&gt;
После выполнения команды запускаем контейнер, и вуаля - диск виден в контейнере по пути /disk1.&lt;br /&gt;
 * [https://wiki.pztrn.name/software/proxmox/directory_passthru/ Источник...]&lt;br /&gt;
==Снижение нагрузки на системный диск==&lt;br /&gt;
Если не используется кластеризация, а идет большой объём записи на системный диск.&amp;lt;br&amp;gt;&lt;br /&gt;
Лечится отключением служб '''pve-ha-crm''' и '''pve-ha-lrm''' (нужны только для '''High Availability''').&lt;br /&gt;
&lt;br /&gt;
==Решение проблемы со шрифтами в консоли==&lt;br /&gt;
* в /etc/default/console-setup внести настройки:&lt;br /&gt;
 # CONFIGURATION FILE FOR SETUPCON&lt;br /&gt;
 &lt;br /&gt;
 # Consult the console-setup(5) manual page.&lt;br /&gt;
 &lt;br /&gt;
 ACTIVE_CONSOLES=&amp;quot;/dev/tty[1-6]&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
 CHARMAP=&amp;quot;UTF-8&amp;quot;&lt;br /&gt;
 &lt;br /&gt;
 '''CODESET=&amp;quot;CyrSlav&amp;quot;'''&lt;br /&gt;
 '''FONTFACE=&amp;quot;Terminus&amp;quot;'''&lt;br /&gt;
 '''FONTSIZE=&amp;quot;8x16&amp;quot;'''&lt;br /&gt;
 &lt;br /&gt;
 VIDEOMODE=&lt;br /&gt;
 &lt;br /&gt;
 # The following is an example how to use a braille font&lt;br /&gt;
 # FONT='lat9w-08.psf.gz brl-8x8.psf'&lt;br /&gt;
&lt;br /&gt;
==Решение проблемы c PCI Passthrough==&lt;br /&gt;
* На более новых процессорах:&lt;br /&gt;
 GRUB_CMDLINE_LINUX_DEFAULT=&amp;quot;quiet intel_iommu=on iommu=pt&amp;quot;;&lt;br /&gt;
&lt;br /&gt;
* Для старых Xeon:&lt;br /&gt;
 GRUB_CMDLINE_LINUX_DEFAULT=“quiet intel_iommu=on iommu=pt pci=assign-busses pcie_acs_override=downstream,multifunction”.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==Дополнительно==&lt;br /&gt;
* [[Как включить вложенную виртуализацию KVM]]&lt;br /&gt;
* [[Proxmox - перенос контейнеров из LXC]]&lt;br /&gt;
* [[Proxmox - Аварийные ситуации и пути решения проблем]]&lt;br /&gt;
* [[Proxmox - создание общего ZFS]]&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://habrahabr.ru/post/273391/ Proxmox VE 4 установка корневого раздела на неподдерживаемый установщиком soft raid1]&lt;br /&gt;
* [https://blog.airmeno.ru/?p=809 PROXMOX 6. Установка, настройка, кластер.]&lt;br /&gt;
* [https://habr.com/ru/post/457894/ Работа с кластером Proxmox: установка, настройка сети, ZFS]&lt;br /&gt;
* [https://interface31.ru/tech_it/2019/10/nastraivaem-set-v-proxmox-ve.html Настраиваем сеть в Proxmox Virtual Environment]&lt;br /&gt;
* [https://pve.proxmox.com/pve-docs/pve-firewall.8.html pve-firewall]&lt;br /&gt;
* [http://alligator.work/proxmox-4-%D0%BE%D1%82%D0%BA%D0%BB%D1%8E%D1%87%D0%B0%D0%B5%D0%BC-%D0%BF%D0%BB%D0%B0%D1%82%D0%BD%D1%8B%D0%B9-%D1%80%D0%B5%D0%BF%D0%BE%D0%B7%D0%B8%D1%82%D0%BE%D1%80%D0%B8%D0%B9/ PROXMOX 4, ОТКЛЮЧАЕМ ПЛАТНЫЙ РЕПОЗИТОРИЙ]&lt;br /&gt;
* [https://interface31.ru/tech_it/2019/10/nastraivaem-set-v-proxmox-ve.html Настраиваем сеть в Proxmox Virtual Environment]&lt;br /&gt;
* [[Проброс HDD или USB диска в гостевую машину Proxmox VE]]&lt;br /&gt;
* [https://blog.joeplaa.com/benchmark-proxmox-virtual-disk-settings/ Benchmark Proxmox Virtual Disk settings]&lt;br /&gt;
* [[Мониторинг Proxmox через Zabbix]]&lt;br /&gt;
* [https://pve.proxmox.com/wiki/Shrink_Qcow2_Disk_Files Recommended Solution - '''fstrim''']&lt;br /&gt;
* [https://www.programmersought.com/article/846311180663/ Resize LVM Root &amp;amp; Proxmox Ve (PVE) increases the size of the LOCAL directory as the capacity expansion]&lt;br /&gt;
* [https://russianblogs.com/article/10454182813/ Proxmox VE 7.0 Расширенная установка и диск -раздел «Системный диск»]&lt;br /&gt;
* [https://servernews.ru/595907 Proxmox VE 2 – быстрый старт в виртуализации]&lt;br /&gt;
* [https://itproblog.ru/%D1%83%D1%81%D1%82%D0%B0%D0%BD%D0%BE%D0%B2%D0%BA%D0%B0-proxmox/ Установка Proxmox]&lt;br /&gt;
* [https://hostkey.ru/documentation/marketplace/virt_hypervisors/proxmox/#proxmox-ve Proxmox Документация RU]&lt;br /&gt;
* [https://typical-admin.ru/item/94-proxmox-cluster Настройка кластера Proxmox 7.1 в домашних условиях]&lt;br /&gt;
* [https://koobik.net/howto-import-disk-into-proxmox/ ИМПОРТ ДИСКА ВМ В PROXMOX]&lt;br /&gt;
* [https://www.dmosk.ru/miniinstruktions.php?mini=proxmoxve-cluster#move Ручное перемещение виртуальной машины]&lt;br /&gt;
* [https://habr.com/ru/companies/selectel/articles/489914/ ИМПОРТ ДИСКА ВМ В PROXMOX]&lt;br /&gt;
* [https://interface31.ru/tech_it/2021/12/perenos-virtualnyh-mashin-i-konteynerov-proxmox-ve-na-drugoy-server.html Перенос виртуальных машин и контейнеров Proxmox VE на другой сервер]&lt;br /&gt;
* [https://dannyda.com/2023/10/27/some-commonly-used-proxmox-ve-terminal-console-ssh-commands/ Proxmox VE terminal/console/SSH commands]&lt;br /&gt;
* [[Proxy the Proxmox Web GUI with Nginx Over HTTPS - Настройка]]&lt;br /&gt;
* [https://forum.proxmox.com/threads/cant-access-proxmox-webgui.89396/page-2 Невозможен доступ к proxmox webgui]&lt;br /&gt;
* [https://wiki.cless.pro/index.php?title=Proxmox._%D0%A1%D0%BE%D0%B7%D0%B4%D0%B0%D0%BD%D0%B8%D0%B5_%D0%BE%D0%B1%D1%80%D0%B0%D0%B7%D0%B0-%D0%B1%D1%8D%D0%BA%D0%B0%D0%BF%D0%B0_%D1%81%D0%B8%D1%81%D1%82%D0%B5%D0%BC%D0%BD%D0%BE%D0%B3%D0%BE_%D0%B4%D0%B8%D1%81%D0%BA%D0%B0_%D0%9E%D0%A1_Proxmox_%D0%B8_%D0%B5%D0%B3%D0%BE_%D0%B2%D0%BE%D1%81%D1%81%D1%82%D0%B0%D0%BD%D0%BE%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5 Proxmox. Создание образа-бэкапа системного диска ОС Proxmox и его восстановление]&lt;br /&gt;
&lt;br /&gt;
==NVIDIA==&lt;br /&gt;
* [https://wvthoog.nl/proxmox-vgpu-v3/ Proxmox vGPU – v3]&lt;br /&gt;
* [https://cloud.google.com/compute/docs/gpus/grid-drivers-table Drivers for NVIDIA RTX Virtual Workstation]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=NVIDIA_TESLA_P40_24Gb&amp;diff=4700</id>
		<title>NVIDIA TESLA P40 24Gb</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=NVIDIA_TESLA_P40_24Gb&amp;diff=4700"/>
		<updated>2026-04-28T20:07:36Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
* [https://wvthoog.nl/proxmox-7-vgpu-v2/ Proxmox 7 vGPU – v2]&lt;br /&gt;
* [https://www.tune-it.ru/web/ifsolo/blog/-/blogs/razblokirovka-vgpu-na-pol-zovatel-skih-videokartah-nvidia Разблокировка vGPU на пользовательских видеокартах NVIDIA]&lt;br /&gt;
* [https://docs.virtuozzo.com/virtuozzo_hybrid_infrastructure_4_7_admins_guide/index.html#preparing-nodes-gpu-passthrough.html Administrator Guide]&lt;br /&gt;
* [https://pve.proxmox.com/wiki/NVIDIA_vGPU_on_Proxmox_VE NVIDIA vGPU on Proxmox VE]&lt;br /&gt;
* [https://www.derekseaman.com/2024/07/proxmox-ve-8-2-windows-11-vgpu-vt-d-passthrough-with-intel-alder-lake.html Proxmox VE 8.2: Windows 11 vGPU (VT-d) Passthrough with Intel Alder Lake]&lt;br /&gt;
* [https://set.ogorodguru.ru/nvidia-grid-vgpu-linux/ Nvidia grid vgpu linux]&lt;br /&gt;
* [https://www.alibabacloud.com/help/en/egs/user-guide/use-cloud-assistant-to-automatically-install-and-upgrade-grid-drivers?spm=a2c63.p38356.help-menu-155040.d_1_5_2_1.19a1463afUkaci Install the GRID driver on a vGPU-accelerated Linux instance]&lt;br /&gt;
* [https://www.tune-it.ru/web/ifsolo/blog/-/blogs/razblokirovka-vgpu-na-pol-zovatel-skih-videokartah-nvidia Разблокировка vGPU на пользовательских видеокартах NVIDIA]&lt;br /&gt;
* [[Особенности управления NVIDIA P40 с помощью mdevctl]]&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://github.com/ProTechEx/vgpu-proxmox#nvidia-driver NVIDIA vGPU on Proxmox]&lt;br /&gt;
* [https://files.nvidia.space/Drivers/ nvidia.space/Drivers]&lt;br /&gt;
* [https://cloud.google.com/compute/docs/gpus/grid-drivers-table grid-drivers-table]&lt;br /&gt;
* [https://git.collinwebdesigns.de/oscar.krause/fastapi-dls Minimal Delegated License Service (DLS).]&lt;br /&gt;
* [https://github.com/koldunchik1986/NVIDIA-Patch2 Linux NVIDIA Driver Patcher]&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://archive.org/details/nvidiagpuarchive NVIDIA vGPU Archive]&lt;br /&gt;
* [https://github.com/NVIDIA/cuda-gdb/releases cuda-toolkit]&lt;br /&gt;
* [https://developer.nvidia.com/cuda-12-2-0-download-archive?target_os=Linux&amp;amp;target_arch=x86_64&amp;amp;Distribution=Debian&amp;amp;target_version=11&amp;amp;target_type=deb_local  CUDA Toolkit 12.2 Downloads]&lt;br /&gt;
* [https://distro.ibiblio.org/debian/pool/non-free/n/nvidia-graphics-drivers-tesla-535/ nvidia-graphics-drivers-tesla-535]&lt;br /&gt;
* [https://pve.proxmox.com/wiki/PCI_Passthrough#GPU_passthrough PCI Passthrough - Это сборник примеров, обходных путей, хаков и конкретных проблем, связанных со сквозной передачей PCI(e)]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=Proxmox_5.3_-_%D0%9F%D1%80%D0%BE%D0%B1%D0%BB%D0%B5%D0%BC%D1%8B_%D1%81_vGPU_Tesla_P40&amp;diff=4699</id>
		<title>Proxmox 5.3 - Проблемы с vGPU Tesla P40</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=Proxmox_5.3_-_%D0%9F%D1%80%D0%BE%D0%B1%D0%BB%D0%B5%D0%BC%D1%8B_%D1%81_vGPU_Tesla_P40&amp;diff=4699"/>
		<updated>2026-04-28T19:57:03Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;* Пошаговая инструкция:&lt;br /&gt;
&lt;br /&gt;
 1) [https://pve.proxmox.com/wiki/Pci_passthrough Включите] iommu на хосте Proxmox: &lt;br /&gt;
 2) Загрузите NVIDIA vGPU для Linux KVM (NVIDIA-Linux-x86_64-430.67-vgpu-kvm.run или более позднюю версию) с [https://nvid.nvidia.com/dashboard/ Nvidia]&lt;br /&gt;
 3) Выполните код на хосте Proxmox&lt;br /&gt;
* Код:&lt;br /&gt;
 chmod +x NVIDIA-Linux-x86_64-430.67-vgpu-kvm.run&lt;br /&gt;
 apt install gcc make pve-headers-`uname -r`&lt;br /&gt;
 ./NVIDIA-Linux-x86_64-430.67-vgpu-kvm.run&lt;br /&gt;
 mkdir /usr/lib64&lt;br /&gt;
 ln -s /usr/lib/x86_64-linux-gnu/libnvidia-ml.so /usr/lib64/libnvidia-ml.so&lt;br /&gt;
 ln -s /usr/lib/x86_64-linux-gnu/libnvidia-vgxcfg.so /usr/lib64/libnvidia-vgxcfg.so&lt;br /&gt;
 ln -s /usr/lib/x86_64-linux-gnu/libnvidia-vgpu.so /usr/lib64/libnvidia-vgpu.so&lt;br /&gt;
 ln -s /usr/lib/x86_64-linux-gnu/libnvidia-cfg.so /usr/lib64/libnvidia-cfg.so&lt;br /&gt;
 4) Перезагрузите хост Proxmox.&lt;br /&gt;
 5) Добавьте все виртуальные машины с разными UUID: 'args: -uuid 00000000-0000-0000-0000-000000000100' в файл конфигурации виртуальной машины /etc/pve/local/qemu-server/100.conf&lt;br /&gt;
&lt;br /&gt;
* [https://fastfox.pro/blog/tutorials/linux-vfio-iommu-passthrough/ Дополнительно]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=Proxmox_5.3_-_%D0%9F%D1%80%D0%BE%D0%B1%D0%BB%D0%B5%D0%BC%D1%8B_%D1%81_vGPU_Tesla_P40&amp;diff=4698</id>
		<title>Proxmox 5.3 - Проблемы с vGPU Tesla P40</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=Proxmox_5.3_-_%D0%9F%D1%80%D0%BE%D0%B1%D0%BB%D0%B5%D0%BC%D1%8B_%D1%81_vGPU_Tesla_P40&amp;diff=4698"/>
		<updated>2026-04-28T19:55:00Z</updated>

		<summary type="html">&lt;p&gt;Vix: Новая страница: «* Пошаговая инструкция:   1) Включите iommu на хосте Proxmox: https://pve.proxmox.com/wiki/Pci_passthrough  2) Загрузите NVIDIA vGPU для Linux KVM (NVIDIA-Linux-x86_64-430.67-vgpu-kvm.run или более позднюю версию) с  https://nvid.nvidia.com/dashboard/  3) Выполните код на хосте Proxmox * Код:  chmod +x NVIDIA-Linux-x86_64-430.67-vgpu-kvm.run  apt install gcc make pve-he...»&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;* Пошаговая инструкция:&lt;br /&gt;
&lt;br /&gt;
 1) Включите iommu на хосте Proxmox: https://pve.proxmox.com/wiki/Pci_passthrough&lt;br /&gt;
 2) Загрузите NVIDIA vGPU для Linux KVM (NVIDIA-Linux-x86_64-430.67-vgpu-kvm.run или более позднюю версию) с  https://nvid.nvidia.com/dashboard/&lt;br /&gt;
 3) Выполните код на хосте Proxmox&lt;br /&gt;
* Код:&lt;br /&gt;
 chmod +x NVIDIA-Linux-x86_64-430.67-vgpu-kvm.run&lt;br /&gt;
 apt install gcc make pve-headers-`uname -r`&lt;br /&gt;
 ./NVIDIA-Linux-x86_64-430.67-vgpu-kvm.run&lt;br /&gt;
 mkdir /usr/lib64&lt;br /&gt;
 ln -s /usr/lib/x86_64-linux-gnu/libnvidia-ml.so /usr/lib64/libnvidia-ml.so&lt;br /&gt;
 ln -s /usr/lib/x86_64-linux-gnu/libnvidia-vgxcfg.so /usr/lib64/libnvidia-vgxcfg.so&lt;br /&gt;
 ln -s /usr/lib/x86_64-linux-gnu/libnvidia-vgpu.so /usr/lib64/libnvidia-vgpu.so&lt;br /&gt;
 ln -s /usr/lib/x86_64-linux-gnu/libnvidia-cfg.so /usr/lib64/libnvidia-cfg.so&lt;br /&gt;
 4) Перезагрузите хост Proxmox.&lt;br /&gt;
 5) Добавьте все виртуальные машины с разными UUID: 'args: -uuid 00000000-0000-0000-0000-000000000100' в файл конфигурации виртуальной машины /etc/pve/local/qemu-server/100.conf&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=AI_%D0%B8%D0%BB%D0%B8_%D0%98%D1%81%D0%BA%D1%83%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82_-_%D1%80%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%BA%D0%B0_%D0%B8_%D0%B8%D0%B7%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4697</id>
		<title>AI или Искуственный Интеллект - разработка и изучение</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=AI_%D0%B8%D0%BB%D0%B8_%D0%98%D1%81%D0%BA%D1%83%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82_-_%D1%80%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%BA%D0%B0_%D0%B8_%D0%B8%D0%B7%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4697"/>
		<updated>2026-04-24T00:21:52Z</updated>

		<summary type="html">&lt;p&gt;Vix: /* ПОЛЕЗНОЕ */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==ВВЕДЕНИЕ==&lt;br /&gt;
LLM расшифровывается как «Модель большого языка». Это передовые системы искусственного интеллекта, предназначенные для понимания и создания текста, похожего на человеческий, на основе вводимых данных.&amp;lt;br&amp;gt;&lt;br /&gt;
Эти модели были обучены на огромных объемах текстовых данных и могут выполнять широкий спектр задач, связанных с языком, таких как ответы на вопросы, проведение бесед, обобщение текста, перевод языков и многое другое.&amp;lt;br&amp;gt;&lt;br /&gt;
* '''Обучение модели LLM'''&lt;br /&gt;
На высоком уровне обучение модели LLM включает в себя три этапа, т. е. сбор данных, обучение и оценку.&lt;br /&gt;
* Сбор данных (Data Collection) Первым шагом является сбор данных, которые будут использоваться для обучения модели. Данные могут быть собраны из различных источников, таких как Википедия, новостные статьи, книги, веб-сайты и т. д.&lt;br /&gt;
* Обучение (Training): Затем данные проходят через обучающий конвейер, где они очищаются и предварительно обрабатываются перед тем, как поступить в модель для обучения. Процесс обучения обычно занимает много времени и требует больших вычислительных мощностей.&lt;br /&gt;
* Оценка (Evaluation): Последний шаг — оценить производительность модели, чтобы увидеть, насколько хорошо она справляется с различными задачами, такими как ответы на вопросы, обобщение, перевод и т. д.&lt;br /&gt;
* Результатом конвейера обучения является модель LLM, которая представляет собой просто параметры или веса, отражающие знания, полученные в процессе обучения. Эти параметры или веса обычно сериализуются и хранятся в файле, который затем может быть загружен в любое приложение, требующее возможностей языковой обработки, например, генерация текста, ответы на вопросы, языковая обработка и т. д.&lt;br /&gt;
* '''Типы LLM'''&lt;br /&gt;
На высоком уровне LLM можно разделить на два типа: - базовые LLM - LLM, настроенные под инструкции.&lt;br /&gt;
&lt;br /&gt;
* '''Базовые LLM'''&lt;br /&gt;
Базовые LLM — это LLM, предназначенные для предсказания следующего слова на основе обучающих данных. Они не предназначены для ответов на вопросы, проведения бесед или помощи в решении проблем. Например, если вы дадите базовому LLM предложение «В этой книге мы обсудим LLM», оно может завершить это предложение и дать вам «В этой книге о LLM мы обсудим, что такое LLM, как они работают и как вы можете использовать их в своих приложениях. ». Или, если вы дадите ему «Какие известные социальные сети?», вместо ответа он может ответить «Почему люди используют социальные сети?» или «Каковы преимущества социальных сетей?». Как видите, он дает нам соответствующий текст, но не отвечает на вопрос. Именно здесь в игру вступают LLM, настроенные под инструкции.&lt;br /&gt;
&lt;br /&gt;
* '''LLM, настроенные по инструкции'''&lt;br /&gt;
Instruction Tuned LLM вместо того, чтобы пытаться автозаполнять ваш текст, попробуйте следовать данным инструкциям, используя данные, на которых они были обучены. Например, если вы введете предложение «Что такое LLM?» он будет использовать данные, на которых он обучен, и попытается ответить на вопрос. Точно так же, если вы введете «Какие известные социальные сети?» он попытается ответить на вопрос вместо того, чтобы дать вам случайный ответ.&lt;br /&gt;
&lt;br /&gt;
* Instruction Tuned LLM построены поверх базовых LLM:&lt;br /&gt;
Instruction Tuned LLMs = Base LLMs + Further Tuning + RLHF&lt;br /&gt;
Для создания LLM с настройкой инструкций берется базовый LLM, который дополнительно обучается с использованием большого набора данных, охватывающего пример «Инструкций» и того, как модель должна работать в результате этих инструкций. Затем модель настраивается с помощью метода под названием «обучение с подкреплением с обратной связью человека» (RLHF), который позволяет модели учиться на обратной связи человека и со временем улучшать свою производительность.&lt;br /&gt;
&lt;br /&gt;
* '''В итоге'''&lt;br /&gt;
Языковые модели (LLM) произвели революцию в области обработки естественного языка (NLP), позволив машинам понимать и генерировать человекоподобный текст. LLM — это мощный инструмент, который можно использовать для решения широкого круга языковых задач. Они используются в различных отраслях, таких как здравоохранение, финансы, образование и т. д., для автоматизации процессов и повышения эффективности. У LLM есть потенциал революционизировать то, как мы взаимодействуем с компьютерами, и сделать нашу жизнь проще.&amp;lt;br&amp;gt;&lt;br /&gt;
[https://devopsgu.ru/blog/posts/chto-takoe-llm/#llm_4 Источник]&lt;br /&gt;
&lt;br /&gt;
==РАЗРАБОТКА==&lt;br /&gt;
* [https://nuancesprog.ru/p/18464/ Рост производительности машинного обучения с Rust]&lt;br /&gt;
* [https://uproger.com/biblioteka-rust-burn-dlya-glubokogo-obucheniya/ Библиотека Rust Burn для глубокого обучения]&lt;br /&gt;
* [https://dzen.ru/a/ZzOHE-7MEj_PiZZb Эмбединги с помощью Rust]&lt;br /&gt;
* [https://codezup.com/deploying-machine-learning-models-in-rust-with-rustml/ Развертывание моделей машинного обучения в Rust с помощью RUSTML]&lt;br /&gt;
---&lt;br /&gt;
* [https://github.com/coqui-ai/TTS Coqui TTS (модель XTTS-v2) голос]&lt;br /&gt;
* [https://digest.allm.link/ru/blogs/pixtral-12b-vision-model-now-on-amazon-bedrock/ Pixtral-12B теперь на Amazon Bedrock]&lt;br /&gt;
* [https://github.com/tomstaan/Clarivex-Pixtral-12B Clarivex-Pixtral-12B]&lt;br /&gt;
* [https://habr.com/ru/companies/serverflow/articles/851712/ Тестируем Pixtral12B и LLaMA 3.2 11B на народных Tesla P100 и P40]&lt;br /&gt;
==ИСТОЧНИКИ==&lt;br /&gt;
* [https://vc.ru/ai/881777-spravochnik-po-vyboru-gpu-dlya-raboty-s-bolshimi-yazykovymi-modelyami-llama Справочник по выбору GPU для работы с большими языковыми моделями Llama]&lt;br /&gt;
* [https://habr.com/ru/articles/768844/ Раскрывая секреты LLM: руководство по основным понятиям больших языковых моделей без хайпа]&lt;br /&gt;
&lt;br /&gt;
==ПОЛЕЗНОЕ==&lt;br /&gt;
* [https://huyenchip.com/llama-police Большой список open-source AI-моделей и не только]&lt;br /&gt;
* [https://github.com/stars/chiphuyen/lists/cool-llm-repos GitHub open-source AI List]&lt;br /&gt;
* [https://habr.com/ru/companies/first/articles/699380/ Опенсорс учёный: 15 полезных инструментов с искусственным интеллектом и машинным обучением]&lt;br /&gt;
* [https://sysadmin78.ru/doku.php/open_source:open_source_ai_machine_learning 7 лучших ИИ и систем машинного обучения с открытым исходным кодом]&lt;br /&gt;
* [https://hubai.ru/ HuB AI - Рабочие модели]&lt;br /&gt;
* [https://huggingface.co/spaces/Vokturz/can-it-run-llm Требования по ресурсам модель LLM]&lt;br /&gt;
* [https://www.ixbt.com/live/sw/ustanavlivaem-deepseek-na-domashniy-pk.html Как установить нейронную сеть DeepSeek на ПК]&lt;br /&gt;
* [https://dzen.ru/a/Z5zNHtZRjhRfVDkw Устанавливаем нейросеть DeepSeek локально на компьютер.]&lt;br /&gt;
* [https://rozetked.me/articles/37509-kak-zapustit-neyroset-deepseek-r1-lokal-no-na-svoem-komp-yutere Как запустить нейросеть DeepSeek-R1 локально на своём компьютере]&lt;br /&gt;
* [https://baskovsky.ru/2023/11/saiga/ Используем русский LLM — saiga]&lt;br /&gt;
* [https://vk.com/wall-208569258_115 ProgressNeuro: ChatGPT, Midjourney &amp;amp; Нейросети]&lt;br /&gt;
* [https://habr.com/ru/articles/767588/ Сайга-Мистраль — третья русская нейросеть после YaGPT и GigaChat, публично доступная по API]&lt;br /&gt;
* [https://timeweb.com/ru/community/articles/neyroseti-dlya-transkribacii-audio-i-video-v-tekst-10-luchshih-servisov-podborka Нейросети для транскрибации аудио и видео в текст: 10 лучших сервисов]&lt;br /&gt;
* [https://serverflow.ru/blog/stati/luchshie-modeli-ii-dlya-razvertyvaniya-na-svoem-pk-ili-servere-podrobno-o-trebovaniyakh-dlya-razvert/ Лучшие модели ИИ для развертывания на своем ПК или сервере]&lt;br /&gt;
* [https://pikabu.ru/story/luchshie_otkryityie_modeli_ii_dlya_sinteza_russkoy_rechi_na_domashnem_pk_12859001 Лучшие открытые модели ИИ для синтеза русской речи на домашнем ПК]&lt;br /&gt;
* [https://translated.turbopages.org/proxy_u/en-ru.ru.e01f73f9-69038089-64503cc9-74722d776562/https/www.freecodecamp.org/news/machine-learning-using-julia/ Машинное обучение с помощью Julia — как создать и развернуть обученную модель ИИ в виде веб-сервиса]&lt;br /&gt;
* [https://devtrends.ru/python/janvarev-irene-voice-assistant Ирина - ваш личный русскоязычный ассистент без зависимости от интернета]&lt;br /&gt;
* [https://devtrends.ru/typescript/janhq-jan Ваш персональный AI-ассистент, который не требует интернета]&lt;br /&gt;
* [https://habr.com/ru/companies/minerva_media/articles/909130/ За полчаса установил DeepSeek 1.5B, пока вы искали GPT подешевле]&lt;br /&gt;
* [https://1dedic.ru/blog/articles/lokalnoe-ispolzovanie-yazykovoy-modeli-na-vydelennom-servere-chast-pervaya-deepseek-i-eyo Локальное использование языковой модели на выделенном сервере. Часть первая: DeepSeek и её дистилляты на сервере без GPU]&lt;br /&gt;
* [https://mclouds.ru/2025/04/deploying-deepseek/ Как развернуть DeepSeek на своем сервере]&lt;br /&gt;
* [https://help.apiyi.com/ru/kimi-k2-5-paper-parameters-requirements-guide-ru.html Обзор технической статьи Kimi K2.5 ...]&lt;br /&gt;
* [https://habr.com/ru/articles/969748/ Kimi K2: новая китайская LLM ...]&lt;br /&gt;
* [https://www.ai-stat.ru/news/2026-01-30-kimi-k25-local-guide Как запустить Kimi K2.5 локально: полный гайд]&lt;br /&gt;
---&lt;br /&gt;
* [https://habr.com/ru/articles/896204/ Сравниваем скорость генерации LLM локально и по API]&lt;br /&gt;
* [https://habr.com/ru/companies/minerva_media/articles/920946/ 15 минут — и у тебя бесплатная ИИ-модель для генерации кода, текста, чтения иллюстраций]&lt;br /&gt;
* [[Лучшая сборка для локального ИИ на слабом железе: OmniCoder-9B, llama.cpp и 32 ГБ ОЗУ]]&lt;br /&gt;
---&lt;br /&gt;
* [https://mclouds.ru/2025/04/deploying-deepseek/ Установка DeepSeek &amp;amp; Ollama]&lt;br /&gt;
* [https://ollama.com/carstenuhlig/omnicoder-9b https://ollama.com/carstenuhlig]&lt;br /&gt;
* [https://ai-manual.ru/article/tesla-p40-dlya-moe-offloudinga-kak-zastavit-8-letnyuyu-kartu-rabotat-luchshe-sovremennyih/ Tesla P40 для MoE]&lt;br /&gt;
* [https://cnb.cool/ai-models/Tesslate/OmniCoder-9B-GGUF OmniCoder-9B-GGUF]&lt;br /&gt;
* [https://habr.com/ru/articles/1025132/ Выжать больше из локальных LLM...]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=%D0%A3%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2%D0%B5%D0%BD%D1%82%D0%B8%D0%BB%D1%8F%D1%82%D0%BE%D1%80%D0%B0%D0%BC%D0%B8_%D0%B2_Linux&amp;diff=4696</id>
		<title>Управление вентиляторами в Linux</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=%D0%A3%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2%D0%B5%D0%BD%D1%82%D0%B8%D0%BB%D1%8F%D1%82%D0%BE%D1%80%D0%B0%D0%BC%D0%B8_%D0%B2_Linux&amp;diff=4696"/>
		<updated>2026-04-23T00:15:16Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;* [[Управление скоростью вращения вентилятора в Linux]]&lt;br /&gt;
==ИСТОЧНИКИ==&lt;br /&gt;
* [https://losst.pro/upravlenie-kulerom-linux#upravlenie-kulerom-linux Управление кулером Linux]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=%D0%A3%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5_%D1%81%D0%BA%D0%BE%D1%80%D0%BE%D1%81%D1%82%D1%8C%D1%8E_%D0%B2%D1%80%D0%B0%D1%89%D0%B5%D0%BD%D0%B8%D1%8F_%D0%B2%D0%B5%D0%BD%D1%82%D0%B8%D0%BB%D1%8F%D1%82%D0%BE%D1%80%D0%B0_%D0%B2_Linux&amp;diff=4695</id>
		<title>Управление скоростью вращения вентилятора в Linux</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=%D0%A3%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5_%D1%81%D0%BA%D0%BE%D1%80%D0%BE%D1%81%D1%82%D1%8C%D1%8E_%D0%B2%D1%80%D0%B0%D1%89%D0%B5%D0%BD%D0%B8%D1%8F_%D0%B2%D0%B5%D0%BD%D1%82%D0%B8%D0%BB%D1%8F%D1%82%D0%BE%D1%80%D0%B0_%D0%B2_Linux&amp;diff=4695"/>
		<updated>2026-04-23T00:14:46Z</updated>

		<summary type="html">&lt;p&gt;Vix: Новая страница: «==Введение== Управление скоростью вращения вентилятора позволяет продлить срок службы системного оборудования и повысить производительность как аппаратного, так и программного обеспечения. По крайней мере, это может повысить энергоэффективность, св...»&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Введение==&lt;br /&gt;
Управление скоростью вращения вентилятора позволяет продлить срок службы системного оборудования и повысить производительность как аппаратного, так и программного обеспечения. По крайней мере, это может повысить энергоэффективность, свести к минимуму износ оборудования из-за перегрева и обеспечить корректную работу программ.&lt;br /&gt;
&lt;br /&gt;
* В этом уроке мы расскажем о способах управления скоростью вращения вентилятора в Linux.&lt;br /&gt;
&lt;br /&gt;
==Использование fancontrol==&lt;br /&gt;
* lm-sensors  — это инструмент для мониторинга аппаратных датчиков в системе, в том числе датчиков температуры, скорости вращения вентилятора и напряжения.&lt;br /&gt;
&lt;br /&gt;
* fancontrol — это утилита lm-sensors, которая регулирует скорость вращения вентилятора в зависимости от температуры системы. Разумеется, мы можем настроить скорость вращения при разных температурах.&lt;br /&gt;
&lt;br /&gt;
==Установка lm-sensors==&lt;br /&gt;
Чтобы использовать fancontrol в нашей системе на базе Debian, мы установим lm-sensors с помощью apt:&lt;br /&gt;
&lt;br /&gt;
 $ sudo apt update &amp;amp;&amp;amp; sudo apt install lm-sensors&lt;br /&gt;
* Однако если мы используем дистрибутив на основе RHEL, например CentOS, мы установим lm-sensors с помощью dnf:&lt;br /&gt;
&lt;br /&gt;
 $ sudo dnf -y install lm_sensors&lt;br /&gt;
* Затем, после установки lm-sensors, мы проверим, все ли прошло успешно:&lt;br /&gt;
&lt;br /&gt;
 $ sensors -v&lt;br /&gt;
 sensors version 3.6.0 with libsensors version 3.6.0&lt;br /&gt;
==Обнаружение датчиков и определение модулей для загрузки==&lt;br /&gt;
Прежде чем настраивать fancontrol для управления скоростью вращения вентилятора, проверим наличие доступных датчиков и модулей ядра, которые нужно загрузить в систему:&lt;br /&gt;
&lt;br /&gt;
 $ sudo sensors-detect&lt;br /&gt;
&lt;br /&gt;
* При запуске sensors-detect мы получим как минимум четыре запроса.&lt;br /&gt;
&lt;br /&gt;
Первая проверка обычно направлена на поиск встроенных в центральный процессор датчиков, южных мостов и контроллеров памяти. Затем, как минимум, проверяются порты ввода-вывода ISA, адаптеры I2C/SMBus и датчики, встроенные в микросхемы ввода-вывода.&lt;br /&gt;
&lt;br /&gt;
* sensors-detect сообщит нам, обнаружен ли какой-либо датчик. Кроме того, он может вернуть список модулей ядра, которые необходимо загрузить для lm-sensors корректной работы.&amp;lt;br&amp;gt;&lt;br /&gt;
Запуск датчиков  помогает нам проверить, исправно ли они работают.&lt;br /&gt;
&lt;br /&gt;
 $ sensors&lt;br /&gt;
 coretemp-isa-0000&lt;br /&gt;
 Adapter: ISA adapter&lt;br /&gt;
 Package id 0:  +35.0°C  (high = +80.0°C, crit = +100.0°C)&lt;br /&gt;
 Core 0:        +33.0°C  (high = +80.0°C, crit = +100.0°C)&lt;br /&gt;
 Core 1:        +31.5°C  (high = +80.0°C, crit = +100.0°C)&lt;br /&gt;
 &lt;br /&gt;
 ...truncated...&lt;br /&gt;
 &lt;br /&gt;
 atk0110-acpi-0&lt;br /&gt;
 Adapter: ACPI interface&lt;br /&gt;
 Vcore Voltage:     1.08 V  (min =  +0.80 V, max =  +1.60 V)&lt;br /&gt;
 +3.3 Voltage:      3.32 V  (min =  +2.97 V, max =  +3.63 V)&lt;br /&gt;
 +5 Voltage:        5.03 V  (min =  +4.50 V, max =  +5.50 V)&lt;br /&gt;
 +12 Voltage:      12.10 V  (min = +10.20 V, max = +13.80 V)&lt;br /&gt;
 CPU FAN Speed:    1200 RPM  (min =  600 RPM, max = 2000 RPM)&lt;br /&gt;
 Chassis FAN Speed:1200 RPM  (min =  600 RPM, max = 2000 RPM)&lt;br /&gt;
&lt;br /&gt;
* В некоторых случаях скорость вращения вентилятора может не отображаться или быть нулевой. Чтобы это исправить, можно увеличить делитель для датчиков вентилятора при настройке fancontrol.&lt;br /&gt;
&lt;br /&gt;
==Настройка fancontrol==&lt;br /&gt;
После запуска sensors-detect мы запустим pwmconfig, чтобы настроить fancontrol:&lt;br /&gt;
&lt;br /&gt;
 $ sudo pwmconfig&lt;br /&gt;
&lt;br /&gt;
* Обычно после установки lm-датчиков должны быть доступны pwmconfig и fancontrol . Но в некоторых случаях нам, возможно, придется устанавливать fancontrol отдельно, чтобы использовать pwmconfig и fancontrol.&lt;br /&gt;
&lt;br /&gt;
* pwmconfig выполняет поиск датчиков, поддерживающих управление с помощью широтно-импульсной модуляции. Во время работы программа выводит различные подсказки для настройки обнаруженных датчиков. Однако подсказки могут отличаться в зависимости от аппаратного обеспечения и конфигурации системы.&lt;br /&gt;
&lt;br /&gt;
* После завершения работы pwmconfig система создаст файл конфигурации /etc/fancontrol:&lt;br /&gt;
&lt;br /&gt;
 $ cat /etc/fancontrol&lt;br /&gt;
 INSIDE=thermal_zone0&lt;br /&gt;
 FULL=100&lt;br /&gt;
 MAXTEMP=70&lt;br /&gt;
 MINTEMP=40&lt;br /&gt;
 MINSTART=40&lt;br /&gt;
 MINSTOP=0&lt;br /&gt;
 MINPWM=20&lt;br /&gt;
 FANTIME=10&lt;br /&gt;
 FANPWM=255&lt;br /&gt;
 &lt;br /&gt;
* Как показано выше, /etc/fancontrol содержит наши ответы на запросы pwmconfig. Мы можем отредактировать его, если нам нужно обновить или изменить настройки fancontrol.&amp;lt;br&amp;gt;&lt;br /&gt;
После создания файла конфигурации fancontrol мы запустим демон fancontrol:&lt;br /&gt;
&lt;br /&gt;
 $ sudo systemctl start fancontrol&lt;br /&gt;
&lt;br /&gt;
* После этого fancontrol сможет регулировать скорость вращения вентиляторов в соответствии с настройками, заданными в /etc/fancontrol.&lt;br /&gt;
&lt;br /&gt;
==Использование nbfc-linux==&lt;br /&gt;
* nbfc-linux — это сокращение от «Notebook Fan Control — Linux». Это реализация оригинального nbfc для Linux, которая управляет скоростью вращения вентилятора в соответствии с заданными температурными пороговыми значениями.&lt;br /&gt;
&lt;br /&gt;
* Установка nbfc-linux&lt;br /&gt;
Чтобы установить nbfc-linux, сначала клонируем репозиторий GitHub:&lt;br /&gt;
&lt;br /&gt;
 $ git clone https://github.com/nbfc-linux/nbfc-linux.git&lt;br /&gt;
&lt;br /&gt;
* Затем мы перейдем в локальную копию репозитория и установим пакет с помощью make и make install:&lt;br /&gt;
&lt;br /&gt;
 $ cd nbfc-linux/ &amp;amp;&amp;amp; make &amp;amp;&amp;amp; sudo make install&lt;br /&gt;
&lt;br /&gt;
* Использование nbfc-linux&lt;br /&gt;
После установки nbfc-linux программа предложит подходящую конфигурацию для нашей системы:&lt;br /&gt;
&lt;br /&gt;
 $ nbfc config -r&lt;br /&gt;
&lt;br /&gt;
* В качестве альтернативы мы могли бы получить список готовых конфигураций:&lt;br /&gt;
&lt;br /&gt;
 $ nbfc config -l&lt;br /&gt;
 ...truncated..&lt;br /&gt;
 Acer Aspire 1410&lt;br /&gt;
 ...truncated...&lt;br /&gt;
 Asus Zenbook UX530U&lt;br /&gt;
 ...truncated...&lt;br /&gt;
 Dell Inspiron 7348&lt;br /&gt;
 ...truncated...&lt;br /&gt;
 HP Laptop 14-cm0xxx&lt;br /&gt;
 ...truncated...&lt;br /&gt;
 Xiaomi Mi Book (TM1613, TM1703)&lt;br /&gt;
&lt;br /&gt;
* Затем мы можем применить одну из этих конфигураций к нашей системе:&lt;br /&gt;
&lt;br /&gt;
 $ sudo nbfc config -a &amp;quot;HP Laptop 14-cm0xxx&amp;quot;&lt;br /&gt;
&lt;br /&gt;
* После применения конфигурации мы можем запустить службу nbfc:&lt;br /&gt;
&lt;br /&gt;
 $ sudo nbfc start&lt;br /&gt;
&lt;br /&gt;
==Аппаратные средства управления вентиляторами==&lt;br /&gt;
* nbfc-linux и fancontrol предлагают управление вентиляторами без привязки к конкретному оборудованию. Но существуют специализированные инструменты для управления вентиляторами, которые могут пригодиться, если универсальные варианты не работают.&lt;br /&gt;
&lt;br /&gt;
* i8kutils  — это инструмент для управления скоростью вращения вентилятора и контроля температуры на некоторых ноутбуках Dell. По умолчанию он настроен на определенные параметры, но пользователи могут изменить их по своему усмотрению.&lt;br /&gt;
* thinkfan  — это инструмент для управления вентилятором, который регулирует скорость вращения вентилятора в ноутбуках Thinkpad в соответствии с температурными пороговыми значениями, заданными в конфигурационном файле.&lt;br /&gt;
* macfanctld  получает данные о температуре процессора с датчиков вентиляторов на MacBook. Затем на основе полученных данных регулирует скорость вращения вентилятора.&lt;br /&gt;
==Заключение==&lt;br /&gt;
В этой статье мы рассказали о двух инструментах для управления скоростью вращения вентилятора в различных моделях ноутбуков, уделив особое внимание их установке и некоторым ключевым функциям. Затем мы рассмотрели несколько распространенных аппаратных средств для управления скоростью вращения вентилятора.&lt;br /&gt;
&lt;br /&gt;
* [https://translated.turbopages.org/proxy_u/en-ru.ru.def279fd-69e96166-7ab6d355-74722d776562/https/www.baeldung.com/linux/control-fan-speed Источник]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=%D0%A3%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2%D0%B5%D0%BD%D1%82%D0%B8%D0%BB%D1%8F%D1%82%D0%BE%D1%80%D0%B0%D0%BC%D0%B8_%D0%B2_Linux&amp;diff=4694</id>
		<title>Управление вентиляторами в Linux</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=%D0%A3%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5_%D0%B2%D0%B5%D0%BD%D1%82%D0%B8%D0%BB%D1%8F%D1%82%D0%BE%D1%80%D0%B0%D0%BC%D0%B8_%D0%B2_Linux&amp;diff=4694"/>
		<updated>2026-04-23T00:08:18Z</updated>

		<summary type="html">&lt;p&gt;Vix: Новая страница: « ==ИСТОЧНИКИ== * [https://losst.pro/upravlenie-kulerom-linux#upravlenie-kulerom-linux Управление кулером Linux]»&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
==ИСТОЧНИКИ==&lt;br /&gt;
* [https://losst.pro/upravlenie-kulerom-linux#upravlenie-kulerom-linux Управление кулером Linux]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=NVIDIA_TESLA_P40_24Gb&amp;diff=4693</id>
		<title>NVIDIA TESLA P40 24Gb</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=NVIDIA_TESLA_P40_24Gb&amp;diff=4693"/>
		<updated>2026-04-22T18:14:17Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
* [https://wvthoog.nl/proxmox-7-vgpu-v2/ Proxmox 7 vGPU – v2]&lt;br /&gt;
* [https://www.tune-it.ru/web/ifsolo/blog/-/blogs/razblokirovka-vgpu-na-pol-zovatel-skih-videokartah-nvidia Разблокировка vGPU на пользовательских видеокартах NVIDIA]&lt;br /&gt;
* [https://docs.virtuozzo.com/virtuozzo_hybrid_infrastructure_4_7_admins_guide/index.html#preparing-nodes-gpu-passthrough.html Administrator Guide]&lt;br /&gt;
* [https://pve.proxmox.com/wiki/NVIDIA_vGPU_on_Proxmox_VE NVIDIA vGPU on Proxmox VE]&lt;br /&gt;
* [https://www.derekseaman.com/2024/07/proxmox-ve-8-2-windows-11-vgpu-vt-d-passthrough-with-intel-alder-lake.html Proxmox VE 8.2: Windows 11 vGPU (VT-d) Passthrough with Intel Alder Lake]&lt;br /&gt;
* [https://set.ogorodguru.ru/nvidia-grid-vgpu-linux/ Nvidia grid vgpu linux]&lt;br /&gt;
* [https://www.alibabacloud.com/help/en/egs/user-guide/use-cloud-assistant-to-automatically-install-and-upgrade-grid-drivers?spm=a2c63.p38356.help-menu-155040.d_1_5_2_1.19a1463afUkaci Install the GRID driver on a vGPU-accelerated Linux instance]&lt;br /&gt;
* [https://www.tune-it.ru/web/ifsolo/blog/-/blogs/razblokirovka-vgpu-na-pol-zovatel-skih-videokartah-nvidia Разблокировка vGPU на пользовательских видеокартах NVIDIA]&lt;br /&gt;
* [[Особенности управления NVIDIA P40 с помощью mdevctl]]&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://github.com/ProTechEx/vgpu-proxmox#nvidia-driver NVIDIA vGPU on Proxmox]&lt;br /&gt;
* [https://files.nvidia.space/Drivers/ nvidia.space/Drivers]&lt;br /&gt;
* [https://cloud.google.com/compute/docs/gpus/grid-drivers-table grid-drivers-table]&lt;br /&gt;
* [https://git.collinwebdesigns.de/oscar.krause/fastapi-dls Minimal Delegated License Service (DLS).]&lt;br /&gt;
* [https://github.com/koldunchik1986/NVIDIA-Patch2 Linux NVIDIA Driver Patcher]&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://archive.org/details/nvidiagpuarchive NVIDIA vGPU Archive]&lt;br /&gt;
* [https://github.com/NVIDIA/cuda-gdb/releases cuda-toolkit]&lt;br /&gt;
* [https://developer.nvidia.com/cuda-12-2-0-download-archive?target_os=Linux&amp;amp;target_arch=x86_64&amp;amp;Distribution=Debian&amp;amp;target_version=11&amp;amp;target_type=deb_local  CUDA Toolkit 12.2 Downloads]&lt;br /&gt;
* [https://distro.ibiblio.org/debian/pool/non-free/n/nvidia-graphics-drivers-tesla-535/ nvidia-graphics-drivers-tesla-535]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=AI_%D0%B8%D0%BB%D0%B8_%D0%98%D1%81%D0%BA%D1%83%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82_-_%D1%80%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%BA%D0%B0_%D0%B8_%D0%B8%D0%B7%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4692</id>
		<title>AI или Искуственный Интеллект - разработка и изучение</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=AI_%D0%B8%D0%BB%D0%B8_%D0%98%D1%81%D0%BA%D1%83%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82_-_%D1%80%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%BA%D0%B0_%D0%B8_%D0%B8%D0%B7%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4692"/>
		<updated>2026-04-22T01:41:31Z</updated>

		<summary type="html">&lt;p&gt;Vix: /* ПОЛЕЗНОЕ */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==ВВЕДЕНИЕ==&lt;br /&gt;
LLM расшифровывается как «Модель большого языка». Это передовые системы искусственного интеллекта, предназначенные для понимания и создания текста, похожего на человеческий, на основе вводимых данных.&amp;lt;br&amp;gt;&lt;br /&gt;
Эти модели были обучены на огромных объемах текстовых данных и могут выполнять широкий спектр задач, связанных с языком, таких как ответы на вопросы, проведение бесед, обобщение текста, перевод языков и многое другое.&amp;lt;br&amp;gt;&lt;br /&gt;
* '''Обучение модели LLM'''&lt;br /&gt;
На высоком уровне обучение модели LLM включает в себя три этапа, т. е. сбор данных, обучение и оценку.&lt;br /&gt;
* Сбор данных (Data Collection) Первым шагом является сбор данных, которые будут использоваться для обучения модели. Данные могут быть собраны из различных источников, таких как Википедия, новостные статьи, книги, веб-сайты и т. д.&lt;br /&gt;
* Обучение (Training): Затем данные проходят через обучающий конвейер, где они очищаются и предварительно обрабатываются перед тем, как поступить в модель для обучения. Процесс обучения обычно занимает много времени и требует больших вычислительных мощностей.&lt;br /&gt;
* Оценка (Evaluation): Последний шаг — оценить производительность модели, чтобы увидеть, насколько хорошо она справляется с различными задачами, такими как ответы на вопросы, обобщение, перевод и т. д.&lt;br /&gt;
* Результатом конвейера обучения является модель LLM, которая представляет собой просто параметры или веса, отражающие знания, полученные в процессе обучения. Эти параметры или веса обычно сериализуются и хранятся в файле, который затем может быть загружен в любое приложение, требующее возможностей языковой обработки, например, генерация текста, ответы на вопросы, языковая обработка и т. д.&lt;br /&gt;
* '''Типы LLM'''&lt;br /&gt;
На высоком уровне LLM можно разделить на два типа: - базовые LLM - LLM, настроенные под инструкции.&lt;br /&gt;
&lt;br /&gt;
* '''Базовые LLM'''&lt;br /&gt;
Базовые LLM — это LLM, предназначенные для предсказания следующего слова на основе обучающих данных. Они не предназначены для ответов на вопросы, проведения бесед или помощи в решении проблем. Например, если вы дадите базовому LLM предложение «В этой книге мы обсудим LLM», оно может завершить это предложение и дать вам «В этой книге о LLM мы обсудим, что такое LLM, как они работают и как вы можете использовать их в своих приложениях. ». Или, если вы дадите ему «Какие известные социальные сети?», вместо ответа он может ответить «Почему люди используют социальные сети?» или «Каковы преимущества социальных сетей?». Как видите, он дает нам соответствующий текст, но не отвечает на вопрос. Именно здесь в игру вступают LLM, настроенные под инструкции.&lt;br /&gt;
&lt;br /&gt;
* '''LLM, настроенные по инструкции'''&lt;br /&gt;
Instruction Tuned LLM вместо того, чтобы пытаться автозаполнять ваш текст, попробуйте следовать данным инструкциям, используя данные, на которых они были обучены. Например, если вы введете предложение «Что такое LLM?» он будет использовать данные, на которых он обучен, и попытается ответить на вопрос. Точно так же, если вы введете «Какие известные социальные сети?» он попытается ответить на вопрос вместо того, чтобы дать вам случайный ответ.&lt;br /&gt;
&lt;br /&gt;
* Instruction Tuned LLM построены поверх базовых LLM:&lt;br /&gt;
Instruction Tuned LLMs = Base LLMs + Further Tuning + RLHF&lt;br /&gt;
Для создания LLM с настройкой инструкций берется базовый LLM, который дополнительно обучается с использованием большого набора данных, охватывающего пример «Инструкций» и того, как модель должна работать в результате этих инструкций. Затем модель настраивается с помощью метода под названием «обучение с подкреплением с обратной связью человека» (RLHF), который позволяет модели учиться на обратной связи человека и со временем улучшать свою производительность.&lt;br /&gt;
&lt;br /&gt;
* '''В итоге'''&lt;br /&gt;
Языковые модели (LLM) произвели революцию в области обработки естественного языка (NLP), позволив машинам понимать и генерировать человекоподобный текст. LLM — это мощный инструмент, который можно использовать для решения широкого круга языковых задач. Они используются в различных отраслях, таких как здравоохранение, финансы, образование и т. д., для автоматизации процессов и повышения эффективности. У LLM есть потенциал революционизировать то, как мы взаимодействуем с компьютерами, и сделать нашу жизнь проще.&amp;lt;br&amp;gt;&lt;br /&gt;
[https://devopsgu.ru/blog/posts/chto-takoe-llm/#llm_4 Источник]&lt;br /&gt;
&lt;br /&gt;
==РАЗРАБОТКА==&lt;br /&gt;
* [https://nuancesprog.ru/p/18464/ Рост производительности машинного обучения с Rust]&lt;br /&gt;
* [https://uproger.com/biblioteka-rust-burn-dlya-glubokogo-obucheniya/ Библиотека Rust Burn для глубокого обучения]&lt;br /&gt;
* [https://dzen.ru/a/ZzOHE-7MEj_PiZZb Эмбединги с помощью Rust]&lt;br /&gt;
* [https://codezup.com/deploying-machine-learning-models-in-rust-with-rustml/ Развертывание моделей машинного обучения в Rust с помощью RUSTML]&lt;br /&gt;
---&lt;br /&gt;
* [https://github.com/coqui-ai/TTS Coqui TTS (модель XTTS-v2) голос]&lt;br /&gt;
* [https://digest.allm.link/ru/blogs/pixtral-12b-vision-model-now-on-amazon-bedrock/ Pixtral-12B теперь на Amazon Bedrock]&lt;br /&gt;
* [https://github.com/tomstaan/Clarivex-Pixtral-12B Clarivex-Pixtral-12B]&lt;br /&gt;
* [https://habr.com/ru/companies/serverflow/articles/851712/ Тестируем Pixtral12B и LLaMA 3.2 11B на народных Tesla P100 и P40]&lt;br /&gt;
==ИСТОЧНИКИ==&lt;br /&gt;
* [https://vc.ru/ai/881777-spravochnik-po-vyboru-gpu-dlya-raboty-s-bolshimi-yazykovymi-modelyami-llama Справочник по выбору GPU для работы с большими языковыми моделями Llama]&lt;br /&gt;
* [https://habr.com/ru/articles/768844/ Раскрывая секреты LLM: руководство по основным понятиям больших языковых моделей без хайпа]&lt;br /&gt;
&lt;br /&gt;
==ПОЛЕЗНОЕ==&lt;br /&gt;
* [https://huyenchip.com/llama-police Большой список open-source AI-моделей и не только]&lt;br /&gt;
* [https://github.com/stars/chiphuyen/lists/cool-llm-repos GitHub open-source AI List]&lt;br /&gt;
* [https://habr.com/ru/companies/first/articles/699380/ Опенсорс учёный: 15 полезных инструментов с искусственным интеллектом и машинным обучением]&lt;br /&gt;
* [https://sysadmin78.ru/doku.php/open_source:open_source_ai_machine_learning 7 лучших ИИ и систем машинного обучения с открытым исходным кодом]&lt;br /&gt;
* [https://hubai.ru/ HuB AI - Рабочие модели]&lt;br /&gt;
* [https://huggingface.co/spaces/Vokturz/can-it-run-llm Требования по ресурсам модель LLM]&lt;br /&gt;
* [https://www.ixbt.com/live/sw/ustanavlivaem-deepseek-na-domashniy-pk.html Как установить нейронную сеть DeepSeek на ПК]&lt;br /&gt;
* [https://dzen.ru/a/Z5zNHtZRjhRfVDkw Устанавливаем нейросеть DeepSeek локально на компьютер.]&lt;br /&gt;
* [https://rozetked.me/articles/37509-kak-zapustit-neyroset-deepseek-r1-lokal-no-na-svoem-komp-yutere Как запустить нейросеть DeepSeek-R1 локально на своём компьютере]&lt;br /&gt;
* [https://baskovsky.ru/2023/11/saiga/ Используем русский LLM — saiga]&lt;br /&gt;
* [https://vk.com/wall-208569258_115 ProgressNeuro: ChatGPT, Midjourney &amp;amp; Нейросети]&lt;br /&gt;
* [https://habr.com/ru/articles/767588/ Сайга-Мистраль — третья русская нейросеть после YaGPT и GigaChat, публично доступная по API]&lt;br /&gt;
* [https://timeweb.com/ru/community/articles/neyroseti-dlya-transkribacii-audio-i-video-v-tekst-10-luchshih-servisov-podborka Нейросети для транскрибации аудио и видео в текст: 10 лучших сервисов]&lt;br /&gt;
* [https://serverflow.ru/blog/stati/luchshie-modeli-ii-dlya-razvertyvaniya-na-svoem-pk-ili-servere-podrobno-o-trebovaniyakh-dlya-razvert/ Лучшие модели ИИ для развертывания на своем ПК или сервере]&lt;br /&gt;
* [https://pikabu.ru/story/luchshie_otkryityie_modeli_ii_dlya_sinteza_russkoy_rechi_na_domashnem_pk_12859001 Лучшие открытые модели ИИ для синтеза русской речи на домашнем ПК]&lt;br /&gt;
* [https://translated.turbopages.org/proxy_u/en-ru.ru.e01f73f9-69038089-64503cc9-74722d776562/https/www.freecodecamp.org/news/machine-learning-using-julia/ Машинное обучение с помощью Julia — как создать и развернуть обученную модель ИИ в виде веб-сервиса]&lt;br /&gt;
* [https://devtrends.ru/python/janvarev-irene-voice-assistant Ирина - ваш личный русскоязычный ассистент без зависимости от интернета]&lt;br /&gt;
* [https://devtrends.ru/typescript/janhq-jan Ваш персональный AI-ассистент, который не требует интернета]&lt;br /&gt;
* [https://habr.com/ru/companies/minerva_media/articles/909130/ За полчаса установил DeepSeek 1.5B, пока вы искали GPT подешевле]&lt;br /&gt;
* [https://1dedic.ru/blog/articles/lokalnoe-ispolzovanie-yazykovoy-modeli-na-vydelennom-servere-chast-pervaya-deepseek-i-eyo Локальное использование языковой модели на выделенном сервере. Часть первая: DeepSeek и её дистилляты на сервере без GPU]&lt;br /&gt;
* [https://mclouds.ru/2025/04/deploying-deepseek/ Как развернуть DeepSeek на своем сервере]&lt;br /&gt;
* [https://help.apiyi.com/ru/kimi-k2-5-paper-parameters-requirements-guide-ru.html Обзор технической статьи Kimi K2.5 ...]&lt;br /&gt;
* [https://habr.com/ru/articles/969748/ Kimi K2: новая китайская LLM ...]&lt;br /&gt;
* [https://www.ai-stat.ru/news/2026-01-30-kimi-k25-local-guide Как запустить Kimi K2.5 локально: полный гайд]&lt;br /&gt;
---&lt;br /&gt;
* [https://habr.com/ru/articles/896204/ Сравниваем скорость генерации LLM локально и по API]&lt;br /&gt;
* [https://habr.com/ru/companies/minerva_media/articles/920946/ 15 минут — и у тебя бесплатная ИИ-модель для генерации кода, текста, чтения иллюстраций]&lt;br /&gt;
* [[Лучшая сборка для локального ИИ на слабом железе: OmniCoder-9B, llama.cpp и 32 ГБ ОЗУ]]&lt;br /&gt;
---&lt;br /&gt;
* [https://mclouds.ru/2025/04/deploying-deepseek/ Установка DeepSeek &amp;amp; Ollama]&lt;br /&gt;
* [https://ollama.com/carstenuhlig/omnicoder-9b https://ollama.com/carstenuhlig]&lt;br /&gt;
* [https://ai-manual.ru/article/tesla-p40-dlya-moe-offloudinga-kak-zastavit-8-letnyuyu-kartu-rabotat-luchshe-sovremennyih/ Tesla P40 для MoE]&lt;br /&gt;
* [https://cnb.cool/ai-models/Tesslate/OmniCoder-9B-GGUF OmniCoder-9B-GGUF]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=AI_%D0%B8%D0%BB%D0%B8_%D0%98%D1%81%D0%BA%D1%83%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82_-_%D1%80%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%BA%D0%B0_%D0%B8_%D0%B8%D0%B7%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4691</id>
		<title>AI или Искуственный Интеллект - разработка и изучение</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=AI_%D0%B8%D0%BB%D0%B8_%D0%98%D1%81%D0%BA%D1%83%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82_-_%D1%80%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%BA%D0%B0_%D0%B8_%D0%B8%D0%B7%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4691"/>
		<updated>2026-04-22T01:39:39Z</updated>

		<summary type="html">&lt;p&gt;Vix: /* ПОЛЕЗНОЕ */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==ВВЕДЕНИЕ==&lt;br /&gt;
LLM расшифровывается как «Модель большого языка». Это передовые системы искусственного интеллекта, предназначенные для понимания и создания текста, похожего на человеческий, на основе вводимых данных.&amp;lt;br&amp;gt;&lt;br /&gt;
Эти модели были обучены на огромных объемах текстовых данных и могут выполнять широкий спектр задач, связанных с языком, таких как ответы на вопросы, проведение бесед, обобщение текста, перевод языков и многое другое.&amp;lt;br&amp;gt;&lt;br /&gt;
* '''Обучение модели LLM'''&lt;br /&gt;
На высоком уровне обучение модели LLM включает в себя три этапа, т. е. сбор данных, обучение и оценку.&lt;br /&gt;
* Сбор данных (Data Collection) Первым шагом является сбор данных, которые будут использоваться для обучения модели. Данные могут быть собраны из различных источников, таких как Википедия, новостные статьи, книги, веб-сайты и т. д.&lt;br /&gt;
* Обучение (Training): Затем данные проходят через обучающий конвейер, где они очищаются и предварительно обрабатываются перед тем, как поступить в модель для обучения. Процесс обучения обычно занимает много времени и требует больших вычислительных мощностей.&lt;br /&gt;
* Оценка (Evaluation): Последний шаг — оценить производительность модели, чтобы увидеть, насколько хорошо она справляется с различными задачами, такими как ответы на вопросы, обобщение, перевод и т. д.&lt;br /&gt;
* Результатом конвейера обучения является модель LLM, которая представляет собой просто параметры или веса, отражающие знания, полученные в процессе обучения. Эти параметры или веса обычно сериализуются и хранятся в файле, который затем может быть загружен в любое приложение, требующее возможностей языковой обработки, например, генерация текста, ответы на вопросы, языковая обработка и т. д.&lt;br /&gt;
* '''Типы LLM'''&lt;br /&gt;
На высоком уровне LLM можно разделить на два типа: - базовые LLM - LLM, настроенные под инструкции.&lt;br /&gt;
&lt;br /&gt;
* '''Базовые LLM'''&lt;br /&gt;
Базовые LLM — это LLM, предназначенные для предсказания следующего слова на основе обучающих данных. Они не предназначены для ответов на вопросы, проведения бесед или помощи в решении проблем. Например, если вы дадите базовому LLM предложение «В этой книге мы обсудим LLM», оно может завершить это предложение и дать вам «В этой книге о LLM мы обсудим, что такое LLM, как они работают и как вы можете использовать их в своих приложениях. ». Или, если вы дадите ему «Какие известные социальные сети?», вместо ответа он может ответить «Почему люди используют социальные сети?» или «Каковы преимущества социальных сетей?». Как видите, он дает нам соответствующий текст, но не отвечает на вопрос. Именно здесь в игру вступают LLM, настроенные под инструкции.&lt;br /&gt;
&lt;br /&gt;
* '''LLM, настроенные по инструкции'''&lt;br /&gt;
Instruction Tuned LLM вместо того, чтобы пытаться автозаполнять ваш текст, попробуйте следовать данным инструкциям, используя данные, на которых они были обучены. Например, если вы введете предложение «Что такое LLM?» он будет использовать данные, на которых он обучен, и попытается ответить на вопрос. Точно так же, если вы введете «Какие известные социальные сети?» он попытается ответить на вопрос вместо того, чтобы дать вам случайный ответ.&lt;br /&gt;
&lt;br /&gt;
* Instruction Tuned LLM построены поверх базовых LLM:&lt;br /&gt;
Instruction Tuned LLMs = Base LLMs + Further Tuning + RLHF&lt;br /&gt;
Для создания LLM с настройкой инструкций берется базовый LLM, который дополнительно обучается с использованием большого набора данных, охватывающего пример «Инструкций» и того, как модель должна работать в результате этих инструкций. Затем модель настраивается с помощью метода под названием «обучение с подкреплением с обратной связью человека» (RLHF), который позволяет модели учиться на обратной связи человека и со временем улучшать свою производительность.&lt;br /&gt;
&lt;br /&gt;
* '''В итоге'''&lt;br /&gt;
Языковые модели (LLM) произвели революцию в области обработки естественного языка (NLP), позволив машинам понимать и генерировать человекоподобный текст. LLM — это мощный инструмент, который можно использовать для решения широкого круга языковых задач. Они используются в различных отраслях, таких как здравоохранение, финансы, образование и т. д., для автоматизации процессов и повышения эффективности. У LLM есть потенциал революционизировать то, как мы взаимодействуем с компьютерами, и сделать нашу жизнь проще.&amp;lt;br&amp;gt;&lt;br /&gt;
[https://devopsgu.ru/blog/posts/chto-takoe-llm/#llm_4 Источник]&lt;br /&gt;
&lt;br /&gt;
==РАЗРАБОТКА==&lt;br /&gt;
* [https://nuancesprog.ru/p/18464/ Рост производительности машинного обучения с Rust]&lt;br /&gt;
* [https://uproger.com/biblioteka-rust-burn-dlya-glubokogo-obucheniya/ Библиотека Rust Burn для глубокого обучения]&lt;br /&gt;
* [https://dzen.ru/a/ZzOHE-7MEj_PiZZb Эмбединги с помощью Rust]&lt;br /&gt;
* [https://codezup.com/deploying-machine-learning-models-in-rust-with-rustml/ Развертывание моделей машинного обучения в Rust с помощью RUSTML]&lt;br /&gt;
---&lt;br /&gt;
* [https://github.com/coqui-ai/TTS Coqui TTS (модель XTTS-v2) голос]&lt;br /&gt;
* [https://digest.allm.link/ru/blogs/pixtral-12b-vision-model-now-on-amazon-bedrock/ Pixtral-12B теперь на Amazon Bedrock]&lt;br /&gt;
* [https://github.com/tomstaan/Clarivex-Pixtral-12B Clarivex-Pixtral-12B]&lt;br /&gt;
* [https://habr.com/ru/companies/serverflow/articles/851712/ Тестируем Pixtral12B и LLaMA 3.2 11B на народных Tesla P100 и P40]&lt;br /&gt;
==ИСТОЧНИКИ==&lt;br /&gt;
* [https://vc.ru/ai/881777-spravochnik-po-vyboru-gpu-dlya-raboty-s-bolshimi-yazykovymi-modelyami-llama Справочник по выбору GPU для работы с большими языковыми моделями Llama]&lt;br /&gt;
* [https://habr.com/ru/articles/768844/ Раскрывая секреты LLM: руководство по основным понятиям больших языковых моделей без хайпа]&lt;br /&gt;
&lt;br /&gt;
==ПОЛЕЗНОЕ==&lt;br /&gt;
* [https://huyenchip.com/llama-police Большой список open-source AI-моделей и не только]&lt;br /&gt;
* [https://github.com/stars/chiphuyen/lists/cool-llm-repos GitHub open-source AI List]&lt;br /&gt;
* [https://habr.com/ru/companies/first/articles/699380/ Опенсорс учёный: 15 полезных инструментов с искусственным интеллектом и машинным обучением]&lt;br /&gt;
* [https://sysadmin78.ru/doku.php/open_source:open_source_ai_machine_learning 7 лучших ИИ и систем машинного обучения с открытым исходным кодом]&lt;br /&gt;
* [https://hubai.ru/ HuB AI - Рабочие модели]&lt;br /&gt;
* [https://huggingface.co/spaces/Vokturz/can-it-run-llm Требования по ресурсам модель LLM]&lt;br /&gt;
* [https://www.ixbt.com/live/sw/ustanavlivaem-deepseek-na-domashniy-pk.html Как установить нейронную сеть DeepSeek на ПК]&lt;br /&gt;
* [https://dzen.ru/a/Z5zNHtZRjhRfVDkw Устанавливаем нейросеть DeepSeek локально на компьютер.]&lt;br /&gt;
* [https://rozetked.me/articles/37509-kak-zapustit-neyroset-deepseek-r1-lokal-no-na-svoem-komp-yutere Как запустить нейросеть DeepSeek-R1 локально на своём компьютере]&lt;br /&gt;
* [https://baskovsky.ru/2023/11/saiga/ Используем русский LLM — saiga]&lt;br /&gt;
* [https://vk.com/wall-208569258_115 ProgressNeuro: ChatGPT, Midjourney &amp;amp; Нейросети]&lt;br /&gt;
* [https://habr.com/ru/articles/767588/ Сайга-Мистраль — третья русская нейросеть после YaGPT и GigaChat, публично доступная по API]&lt;br /&gt;
* [https://timeweb.com/ru/community/articles/neyroseti-dlya-transkribacii-audio-i-video-v-tekst-10-luchshih-servisov-podborka Нейросети для транскрибации аудио и видео в текст: 10 лучших сервисов]&lt;br /&gt;
* [https://serverflow.ru/blog/stati/luchshie-modeli-ii-dlya-razvertyvaniya-na-svoem-pk-ili-servere-podrobno-o-trebovaniyakh-dlya-razvert/ Лучшие модели ИИ для развертывания на своем ПК или сервере]&lt;br /&gt;
* [https://pikabu.ru/story/luchshie_otkryityie_modeli_ii_dlya_sinteza_russkoy_rechi_na_domashnem_pk_12859001 Лучшие открытые модели ИИ для синтеза русской речи на домашнем ПК]&lt;br /&gt;
* [https://translated.turbopages.org/proxy_u/en-ru.ru.e01f73f9-69038089-64503cc9-74722d776562/https/www.freecodecamp.org/news/machine-learning-using-julia/ Машинное обучение с помощью Julia — как создать и развернуть обученную модель ИИ в виде веб-сервиса]&lt;br /&gt;
* [https://devtrends.ru/python/janvarev-irene-voice-assistant Ирина - ваш личный русскоязычный ассистент без зависимости от интернета]&lt;br /&gt;
* [https://devtrends.ru/typescript/janhq-jan Ваш персональный AI-ассистент, который не требует интернета]&lt;br /&gt;
* [https://habr.com/ru/companies/minerva_media/articles/909130/ За полчаса установил DeepSeek 1.5B, пока вы искали GPT подешевле]&lt;br /&gt;
* [https://1dedic.ru/blog/articles/lokalnoe-ispolzovanie-yazykovoy-modeli-na-vydelennom-servere-chast-pervaya-deepseek-i-eyo Локальное использование языковой модели на выделенном сервере. Часть первая: DeepSeek и её дистилляты на сервере без GPU]&lt;br /&gt;
* [https://mclouds.ru/2025/04/deploying-deepseek/ Как развернуть DeepSeek на своем сервере]&lt;br /&gt;
* [https://help.apiyi.com/ru/kimi-k2-5-paper-parameters-requirements-guide-ru.html Обзор технической статьи Kimi K2.5 ...]&lt;br /&gt;
* [https://habr.com/ru/articles/969748/ Kimi K2: новая китайская LLM ...]&lt;br /&gt;
* [https://www.ai-stat.ru/news/2026-01-30-kimi-k25-local-guide Как запустить Kimi K2.5 локально: полный гайд]&lt;br /&gt;
---&lt;br /&gt;
* [https://habr.com/ru/articles/896204/ Сравниваем скорость генерации LLM локально и по API]&lt;br /&gt;
* [https://habr.com/ru/companies/minerva_media/articles/920946/ 15 минут — и у тебя бесплатная ИИ-модель для генерации кода, текста, чтения иллюстраций]&lt;br /&gt;
* [[Лучшая сборка для локального ИИ на слабом железе: OmniCoder-9B, llama.cpp и 32 ГБ ОЗУ]]&lt;br /&gt;
---&lt;br /&gt;
* [https://mclouds.ru/2025/04/deploying-deepseek/ Установка DeepSeek &amp;amp; Ollama]&lt;br /&gt;
* [https://ollama.com/carstenuhlig/omnicoder-9b https://ollama.com/carstenuhlig]&lt;br /&gt;
* [https://ai-manual.ru/article/tesla-p40-dlya-moe-offloudinga-kak-zastavit-8-letnyuyu-kartu-rabotat-luchshe-sovremennyih/ Tesla P40 для MoE]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=AI_%D0%B8%D0%BB%D0%B8_%D0%98%D1%81%D0%BA%D1%83%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82_-_%D1%80%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%BA%D0%B0_%D0%B8_%D0%B8%D0%B7%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4690</id>
		<title>AI или Искуственный Интеллект - разработка и изучение</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=AI_%D0%B8%D0%BB%D0%B8_%D0%98%D1%81%D0%BA%D1%83%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82_-_%D1%80%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%BA%D0%B0_%D0%B8_%D0%B8%D0%B7%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4690"/>
		<updated>2026-04-22T00:46:34Z</updated>

		<summary type="html">&lt;p&gt;Vix: /* ПОЛЕЗНОЕ */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==ВВЕДЕНИЕ==&lt;br /&gt;
LLM расшифровывается как «Модель большого языка». Это передовые системы искусственного интеллекта, предназначенные для понимания и создания текста, похожего на человеческий, на основе вводимых данных.&amp;lt;br&amp;gt;&lt;br /&gt;
Эти модели были обучены на огромных объемах текстовых данных и могут выполнять широкий спектр задач, связанных с языком, таких как ответы на вопросы, проведение бесед, обобщение текста, перевод языков и многое другое.&amp;lt;br&amp;gt;&lt;br /&gt;
* '''Обучение модели LLM'''&lt;br /&gt;
На высоком уровне обучение модели LLM включает в себя три этапа, т. е. сбор данных, обучение и оценку.&lt;br /&gt;
* Сбор данных (Data Collection) Первым шагом является сбор данных, которые будут использоваться для обучения модели. Данные могут быть собраны из различных источников, таких как Википедия, новостные статьи, книги, веб-сайты и т. д.&lt;br /&gt;
* Обучение (Training): Затем данные проходят через обучающий конвейер, где они очищаются и предварительно обрабатываются перед тем, как поступить в модель для обучения. Процесс обучения обычно занимает много времени и требует больших вычислительных мощностей.&lt;br /&gt;
* Оценка (Evaluation): Последний шаг — оценить производительность модели, чтобы увидеть, насколько хорошо она справляется с различными задачами, такими как ответы на вопросы, обобщение, перевод и т. д.&lt;br /&gt;
* Результатом конвейера обучения является модель LLM, которая представляет собой просто параметры или веса, отражающие знания, полученные в процессе обучения. Эти параметры или веса обычно сериализуются и хранятся в файле, который затем может быть загружен в любое приложение, требующее возможностей языковой обработки, например, генерация текста, ответы на вопросы, языковая обработка и т. д.&lt;br /&gt;
* '''Типы LLM'''&lt;br /&gt;
На высоком уровне LLM можно разделить на два типа: - базовые LLM - LLM, настроенные под инструкции.&lt;br /&gt;
&lt;br /&gt;
* '''Базовые LLM'''&lt;br /&gt;
Базовые LLM — это LLM, предназначенные для предсказания следующего слова на основе обучающих данных. Они не предназначены для ответов на вопросы, проведения бесед или помощи в решении проблем. Например, если вы дадите базовому LLM предложение «В этой книге мы обсудим LLM», оно может завершить это предложение и дать вам «В этой книге о LLM мы обсудим, что такое LLM, как они работают и как вы можете использовать их в своих приложениях. ». Или, если вы дадите ему «Какие известные социальные сети?», вместо ответа он может ответить «Почему люди используют социальные сети?» или «Каковы преимущества социальных сетей?». Как видите, он дает нам соответствующий текст, но не отвечает на вопрос. Именно здесь в игру вступают LLM, настроенные под инструкции.&lt;br /&gt;
&lt;br /&gt;
* '''LLM, настроенные по инструкции'''&lt;br /&gt;
Instruction Tuned LLM вместо того, чтобы пытаться автозаполнять ваш текст, попробуйте следовать данным инструкциям, используя данные, на которых они были обучены. Например, если вы введете предложение «Что такое LLM?» он будет использовать данные, на которых он обучен, и попытается ответить на вопрос. Точно так же, если вы введете «Какие известные социальные сети?» он попытается ответить на вопрос вместо того, чтобы дать вам случайный ответ.&lt;br /&gt;
&lt;br /&gt;
* Instruction Tuned LLM построены поверх базовых LLM:&lt;br /&gt;
Instruction Tuned LLMs = Base LLMs + Further Tuning + RLHF&lt;br /&gt;
Для создания LLM с настройкой инструкций берется базовый LLM, который дополнительно обучается с использованием большого набора данных, охватывающего пример «Инструкций» и того, как модель должна работать в результате этих инструкций. Затем модель настраивается с помощью метода под названием «обучение с подкреплением с обратной связью человека» (RLHF), который позволяет модели учиться на обратной связи человека и со временем улучшать свою производительность.&lt;br /&gt;
&lt;br /&gt;
* '''В итоге'''&lt;br /&gt;
Языковые модели (LLM) произвели революцию в области обработки естественного языка (NLP), позволив машинам понимать и генерировать человекоподобный текст. LLM — это мощный инструмент, который можно использовать для решения широкого круга языковых задач. Они используются в различных отраслях, таких как здравоохранение, финансы, образование и т. д., для автоматизации процессов и повышения эффективности. У LLM есть потенциал революционизировать то, как мы взаимодействуем с компьютерами, и сделать нашу жизнь проще.&amp;lt;br&amp;gt;&lt;br /&gt;
[https://devopsgu.ru/blog/posts/chto-takoe-llm/#llm_4 Источник]&lt;br /&gt;
&lt;br /&gt;
==РАЗРАБОТКА==&lt;br /&gt;
* [https://nuancesprog.ru/p/18464/ Рост производительности машинного обучения с Rust]&lt;br /&gt;
* [https://uproger.com/biblioteka-rust-burn-dlya-glubokogo-obucheniya/ Библиотека Rust Burn для глубокого обучения]&lt;br /&gt;
* [https://dzen.ru/a/ZzOHE-7MEj_PiZZb Эмбединги с помощью Rust]&lt;br /&gt;
* [https://codezup.com/deploying-machine-learning-models-in-rust-with-rustml/ Развертывание моделей машинного обучения в Rust с помощью RUSTML]&lt;br /&gt;
---&lt;br /&gt;
* [https://github.com/coqui-ai/TTS Coqui TTS (модель XTTS-v2) голос]&lt;br /&gt;
* [https://digest.allm.link/ru/blogs/pixtral-12b-vision-model-now-on-amazon-bedrock/ Pixtral-12B теперь на Amazon Bedrock]&lt;br /&gt;
* [https://github.com/tomstaan/Clarivex-Pixtral-12B Clarivex-Pixtral-12B]&lt;br /&gt;
* [https://habr.com/ru/companies/serverflow/articles/851712/ Тестируем Pixtral12B и LLaMA 3.2 11B на народных Tesla P100 и P40]&lt;br /&gt;
==ИСТОЧНИКИ==&lt;br /&gt;
* [https://vc.ru/ai/881777-spravochnik-po-vyboru-gpu-dlya-raboty-s-bolshimi-yazykovymi-modelyami-llama Справочник по выбору GPU для работы с большими языковыми моделями Llama]&lt;br /&gt;
* [https://habr.com/ru/articles/768844/ Раскрывая секреты LLM: руководство по основным понятиям больших языковых моделей без хайпа]&lt;br /&gt;
&lt;br /&gt;
==ПОЛЕЗНОЕ==&lt;br /&gt;
* [https://huyenchip.com/llama-police Большой список open-source AI-моделей и не только]&lt;br /&gt;
* [https://github.com/stars/chiphuyen/lists/cool-llm-repos GitHub open-source AI List]&lt;br /&gt;
* [https://habr.com/ru/companies/first/articles/699380/ Опенсорс учёный: 15 полезных инструментов с искусственным интеллектом и машинным обучением]&lt;br /&gt;
* [https://sysadmin78.ru/doku.php/open_source:open_source_ai_machine_learning 7 лучших ИИ и систем машинного обучения с открытым исходным кодом]&lt;br /&gt;
* [https://hubai.ru/ HuB AI - Рабочие модели]&lt;br /&gt;
* [https://huggingface.co/spaces/Vokturz/can-it-run-llm Требования по ресурсам модель LLM]&lt;br /&gt;
* [https://www.ixbt.com/live/sw/ustanavlivaem-deepseek-na-domashniy-pk.html Как установить нейронную сеть DeepSeek на ПК]&lt;br /&gt;
* [https://dzen.ru/a/Z5zNHtZRjhRfVDkw Устанавливаем нейросеть DeepSeek локально на компьютер.]&lt;br /&gt;
* [https://rozetked.me/articles/37509-kak-zapustit-neyroset-deepseek-r1-lokal-no-na-svoem-komp-yutere Как запустить нейросеть DeepSeek-R1 локально на своём компьютере]&lt;br /&gt;
* [https://baskovsky.ru/2023/11/saiga/ Используем русский LLM — saiga]&lt;br /&gt;
* [https://vk.com/wall-208569258_115 ProgressNeuro: ChatGPT, Midjourney &amp;amp; Нейросети]&lt;br /&gt;
* [https://habr.com/ru/articles/767588/ Сайга-Мистраль — третья русская нейросеть после YaGPT и GigaChat, публично доступная по API]&lt;br /&gt;
* [https://timeweb.com/ru/community/articles/neyroseti-dlya-transkribacii-audio-i-video-v-tekst-10-luchshih-servisov-podborka Нейросети для транскрибации аудио и видео в текст: 10 лучших сервисов]&lt;br /&gt;
* [https://serverflow.ru/blog/stati/luchshie-modeli-ii-dlya-razvertyvaniya-na-svoem-pk-ili-servere-podrobno-o-trebovaniyakh-dlya-razvert/ Лучшие модели ИИ для развертывания на своем ПК или сервере]&lt;br /&gt;
* [https://pikabu.ru/story/luchshie_otkryityie_modeli_ii_dlya_sinteza_russkoy_rechi_na_domashnem_pk_12859001 Лучшие открытые модели ИИ для синтеза русской речи на домашнем ПК]&lt;br /&gt;
* [https://translated.turbopages.org/proxy_u/en-ru.ru.e01f73f9-69038089-64503cc9-74722d776562/https/www.freecodecamp.org/news/machine-learning-using-julia/ Машинное обучение с помощью Julia — как создать и развернуть обученную модель ИИ в виде веб-сервиса]&lt;br /&gt;
* [https://devtrends.ru/python/janvarev-irene-voice-assistant Ирина - ваш личный русскоязычный ассистент без зависимости от интернета]&lt;br /&gt;
* [https://devtrends.ru/typescript/janhq-jan Ваш персональный AI-ассистент, который не требует интернета]&lt;br /&gt;
* [https://habr.com/ru/companies/minerva_media/articles/909130/ За полчаса установил DeepSeek 1.5B, пока вы искали GPT подешевле]&lt;br /&gt;
* [https://1dedic.ru/blog/articles/lokalnoe-ispolzovanie-yazykovoy-modeli-na-vydelennom-servere-chast-pervaya-deepseek-i-eyo Локальное использование языковой модели на выделенном сервере. Часть первая: DeepSeek и её дистилляты на сервере без GPU]&lt;br /&gt;
* [https://mclouds.ru/2025/04/deploying-deepseek/ Как развернуть DeepSeek на своем сервере]&lt;br /&gt;
* [https://help.apiyi.com/ru/kimi-k2-5-paper-parameters-requirements-guide-ru.html Обзор технической статьи Kimi K2.5 ...]&lt;br /&gt;
* [https://habr.com/ru/articles/969748/ Kimi K2: новая китайская LLM ...]&lt;br /&gt;
* [https://www.ai-stat.ru/news/2026-01-30-kimi-k25-local-guide Как запустить Kimi K2.5 локально: полный гайд]&lt;br /&gt;
---&lt;br /&gt;
* [https://habr.com/ru/articles/896204/ Сравниваем скорость генерации LLM локально и по API]&lt;br /&gt;
* [https://habr.com/ru/companies/minerva_media/articles/920946/ 15 минут — и у тебя бесплатная ИИ-модель для генерации кода, текста, чтения иллюстраций]&lt;br /&gt;
* [[Лучшая сборка для локального ИИ на слабом железе: OmniCoder-9B, llama.cpp и 32 ГБ ОЗУ]]&lt;br /&gt;
---&lt;br /&gt;
* [https://mclouds.ru/2025/04/deploying-deepseek/ Установка DeepSeek &amp;amp; Ollama]&lt;br /&gt;
* [https://ollama.com/carstenuhlig/omnicoder-9b https://ollama.com/carstenuhlig]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=JavaScript&amp;diff=4689</id>
		<title>JavaScript</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=JavaScript&amp;diff=4689"/>
		<updated>2026-04-21T17:23:18Z</updated>

		<summary type="html">&lt;p&gt;Vix: /* ОНЛАЙН БИБЛИОТЕКА */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==ОСНОВНОЕ==&lt;br /&gt;
* [[Операторы JavaScript]]&lt;br /&gt;
* [[Массивы JavaScript]]&lt;br /&gt;
* [[Объекты JavaScript]]&lt;br /&gt;
* [[JavaScript на новый лад]]&lt;br /&gt;
* [[Шаблоны проектирования JavaScript]]&lt;br /&gt;
* [[JavaScript Strict Mode]]&lt;br /&gt;
* [[Масштабируемые JavaScript приложения]]&lt;br /&gt;
* [[Особенности функций в JavaScript]]&lt;br /&gt;
* [[ООП JavaScript - наследование]]&lt;br /&gt;
* [[Клиентский (браузерный) JavaScript]]&lt;br /&gt;
* [[Базовые Namespace паттерны JavaScript]]&lt;br /&gt;
* [[10 несуразностей и секретов JavaScript]]&lt;br /&gt;
* [[Javascript синхронный и асинхронный запрос]]&lt;br /&gt;
* [[Область видимости переменной в Javascript]]&lt;br /&gt;
* [[Javascript - XMLHttpRequest подробный анализ примера]]&lt;br /&gt;
* [[Переосмысление книги Эдди Османи «Паттерны для масштабируемых JavaScript-приложений»]]&lt;br /&gt;
==ОНЛАЙН БИБЛИОТЕКА==&lt;br /&gt;
* [https://metanit.com/web/d3js/1.1.php Введение в D3.js]&lt;br /&gt;
* [https://gionkunz.github.io/chartist-js/examples.html Chartist.js]&lt;br /&gt;
* [https://two.js.org/ Two.js]&lt;br /&gt;
* [https://dygraphs.com/gallery/#g/synchronize Dygraphs Gallery]&lt;br /&gt;
* [https://www.chartjs.org/docs/latest/samples/other-charts/combo-bar-line.html Chart.js]&lt;br /&gt;
* [https://thecode.media/3d-stars/ Программируем скринсейвер для Илона]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=JavaScript&amp;diff=4688</id>
		<title>JavaScript</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=JavaScript&amp;diff=4688"/>
		<updated>2026-04-21T17:07:54Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==ОСНОВНОЕ==&lt;br /&gt;
* [[Операторы JavaScript]]&lt;br /&gt;
* [[Массивы JavaScript]]&lt;br /&gt;
* [[Объекты JavaScript]]&lt;br /&gt;
* [[JavaScript на новый лад]]&lt;br /&gt;
* [[Шаблоны проектирования JavaScript]]&lt;br /&gt;
* [[JavaScript Strict Mode]]&lt;br /&gt;
* [[Масштабируемые JavaScript приложения]]&lt;br /&gt;
* [[Особенности функций в JavaScript]]&lt;br /&gt;
* [[ООП JavaScript - наследование]]&lt;br /&gt;
* [[Клиентский (браузерный) JavaScript]]&lt;br /&gt;
* [[Базовые Namespace паттерны JavaScript]]&lt;br /&gt;
* [[10 несуразностей и секретов JavaScript]]&lt;br /&gt;
* [[Javascript синхронный и асинхронный запрос]]&lt;br /&gt;
* [[Область видимости переменной в Javascript]]&lt;br /&gt;
* [[Javascript - XMLHttpRequest подробный анализ примера]]&lt;br /&gt;
* [[Переосмысление книги Эдди Османи «Паттерны для масштабируемых JavaScript-приложений»]]&lt;br /&gt;
==ОНЛАЙН БИБЛИОТЕКА==&lt;br /&gt;
* [https://metanit.com/web/d3js/1.1.php Введение в D3.js]&lt;br /&gt;
* [https://gionkunz.github.io/chartist-js/examples.html Chartist.js]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=NVIDIA_TESLA_P40_24Gb&amp;diff=4687</id>
		<title>NVIDIA TESLA P40 24Gb</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=NVIDIA_TESLA_P40_24Gb&amp;diff=4687"/>
		<updated>2026-04-20T21:54:12Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
* [https://wvthoog.nl/proxmox-7-vgpu-v2/ Proxmox 7 vGPU – v2]&lt;br /&gt;
* [https://www.tune-it.ru/web/ifsolo/blog/-/blogs/razblokirovka-vgpu-na-pol-zovatel-skih-videokartah-nvidia Разблокировка vGPU на пользовательских видеокартах NVIDIA]&lt;br /&gt;
* [https://docs.virtuozzo.com/virtuozzo_hybrid_infrastructure_4_7_admins_guide/index.html#preparing-nodes-gpu-passthrough.html Administrator Guide]&lt;br /&gt;
* [https://pve.proxmox.com/wiki/NVIDIA_vGPU_on_Proxmox_VE NVIDIA vGPU on Proxmox VE]&lt;br /&gt;
* [https://www.derekseaman.com/2024/07/proxmox-ve-8-2-windows-11-vgpu-vt-d-passthrough-with-intel-alder-lake.html Proxmox VE 8.2: Windows 11 vGPU (VT-d) Passthrough with Intel Alder Lake]&lt;br /&gt;
* [https://set.ogorodguru.ru/nvidia-grid-vgpu-linux/ Nvidia grid vgpu linux]&lt;br /&gt;
* [https://www.alibabacloud.com/help/en/egs/user-guide/use-cloud-assistant-to-automatically-install-and-upgrade-grid-drivers?spm=a2c63.p38356.help-menu-155040.d_1_5_2_1.19a1463afUkaci Install the GRID driver on a vGPU-accelerated Linux instance]&lt;br /&gt;
* [https://www.tune-it.ru/web/ifsolo/blog/-/blogs/razblokirovka-vgpu-na-pol-zovatel-skih-videokartah-nvidia Разблокировка vGPU на пользовательских видеокартах NVIDIA]&lt;br /&gt;
* [[Особенности управления NVIDIA P40 с помощью mdevctl]]&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://github.com/ProTechEx/vgpu-proxmox#nvidia-driver NVIDIA vGPU on Proxmox]&lt;br /&gt;
* [https://files.nvidia.space/Drivers/ nvidia.space/Drivers]&lt;br /&gt;
* [https://cloud.google.com/compute/docs/gpus/grid-drivers-table grid-drivers-table]&lt;br /&gt;
* [https://git.collinwebdesigns.de/oscar.krause/fastapi-dls Minimal Delegated License Service (DLS).]&lt;br /&gt;
* [https://github.com/koldunchik1986/NVIDIA-Patch2 Linux NVIDIA Driver Patcher]&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://archive.org/details/nvidiagpuarchive NVIDIA vGPU Archive]&lt;br /&gt;
* [https://github.com/NVIDIA/cuda-gdb/releases cuda-toolkit]&lt;br /&gt;
* [https://developer.nvidia.com/cuda-12-2-0-download-archive?target_os=Linux&amp;amp;target_arch=x86_64&amp;amp;Distribution=Debian&amp;amp;target_version=11&amp;amp;target_type=deb_local  CUDA Toolkit 12.2 Downloads]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=%D0%9E%D1%81%D0%BE%D0%B1%D0%B5%D0%BD%D0%BD%D0%BE%D1%81%D1%82%D0%B8_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D1%8F_NVIDIA_P40_%D1%81_%D0%BF%D0%BE%D0%BC%D0%BE%D1%89%D1%8C%D1%8E_mdevctl&amp;diff=4686</id>
		<title>Особенности управления NVIDIA P40 с помощью mdevctl</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=%D0%9E%D1%81%D0%BE%D0%B1%D0%B5%D0%BD%D0%BD%D0%BE%D1%81%D1%82%D0%B8_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D1%8F_NVIDIA_P40_%D1%81_%D0%BF%D0%BE%D0%BC%D0%BE%D1%89%D1%8C%D1%8E_mdevctl&amp;diff=4686"/>
		<updated>2026-04-19T22:47:21Z</updated>

		<summary type="html">&lt;p&gt;Vix: /* ДОПОЛНИЕЛЬНО */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Основные команды mdevctl==&lt;br /&gt;
* '''list.''' Выводит список активных или определённых устройств. С опцией --defined команда покажет все определённые в системе устройства, даже если они не активны.&lt;br /&gt;
* '''types.''' Предоставляет информацию о поддерживаемых на системе типах опосредованных устройств, включая количество экземпляров каждого типа, доступный API, а также название и описание от производителя.&lt;br /&gt;
* '''define.''' Определяет конфигурацию для устройства mdev. Можно указать UUID существующего устройства или полностью задать параметры.&lt;br /&gt;
* '''modify.''' Позволяет изменять конфигурацию устройства. Изменения для работающего устройства не вступят в силу до его остановки и перезапуска.&lt;br /&gt;
undefine. Удаляет определение конфигурации без изменения работающего устройства.&lt;br /&gt;
* '''start и stop.''' Управляют запуском и остановкой устройств.&lt;br /&gt;
==Рекомендации==&lt;br /&gt;
* '''Идентификация устройства'''. Устройства mdev идентифицируются по UUID (универсальному уникальному идентификатору). &lt;br /&gt;
* [https://manpages.ubuntu.com/manpages/focal/en/man8/mdevctl.8.html Источник]&lt;br /&gt;
* [https://github.com/mdevctl/mdevctl Источник]&lt;br /&gt;
* '''Конфигурация'''. Файлы конфигурации хранятся в директории /etc/mdevctl.d/ в формате JSON. Они находятся в поддиректориях, соответствующих родительскому устройству, а имена файлов соответствуют UUID устройства. &lt;br /&gt;
* [https://manpages.ubuntu.com/manpages/focal/en/man8/mdevctl.8.html Источник]&lt;br /&gt;
* '''Типы устройств'''. При использовании команды types можно увидеть доступные типы опосредованных устройств для конкретного GPU. Например, в некоторых случаях для Tesla P40 могут отображаться определённые профили. &lt;br /&gt;
* [https://forum.proxmox.com/threads/vgpu-tesla-p4-wrong-mdevctl-gpu.143247/page-2 Источник]&lt;br /&gt;
* '''Важно:''' для корректной работы vGPU (виртуального графического процессора) могут потребоваться дополнительные настройки, например, поддержка IOMMU (Input/Output Memory Management Unit) и SR-IOV (Single Root I/O Virtualization) в BIOS. &lt;br /&gt;
* [https://www.ispsystem.ru/docs/vmmanager-admin/klastery/ispol-zovanie-vgpu Источник]&lt;br /&gt;
* Если возникают проблемы с отображением типов устройств или управлением ими, стоит проверить версию драйвера NVIDIA и настройки конфигурации vGPU. В некоторых случаях может потребоваться обновление драйвера или корректировка конфигурационных файлов (например, vgpuConfig.xml).&lt;br /&gt;
==ДОПОЛНИЕЛЬНО==&lt;br /&gt;
* [https://docs.nvidia.com/vgpu/latest/grid-vgpu-user-guide/index.html How NVIDIA vGPU Software Is Used]&lt;br /&gt;
* [https://github.com/mdevctl/mdevctl mdevctl - a mediated device management utility for Linux]&lt;br /&gt;
* [https://wiki.astralinux.ru/brest/3.3/podklyuchenie-nvidia-vgpu-k-vm-302045322.html Подключение NVIDIA vGPU к ВМ Astra-Linux]&lt;br /&gt;
* [https://github.com/ProTechEx/vgpu-proxmox#nvidia-driver NVIDIA vGPU on Proxmox]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=%D0%9E%D1%81%D0%BE%D0%B1%D0%B5%D0%BD%D0%BD%D0%BE%D1%81%D1%82%D0%B8_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D1%8F_NVIDIA_P40_%D1%81_%D0%BF%D0%BE%D0%BC%D0%BE%D1%89%D1%8C%D1%8E_mdevctl&amp;diff=4685</id>
		<title>Особенности управления NVIDIA P40 с помощью mdevctl</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=%D0%9E%D1%81%D0%BE%D0%B1%D0%B5%D0%BD%D0%BD%D0%BE%D1%81%D1%82%D0%B8_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D1%8F_NVIDIA_P40_%D1%81_%D0%BF%D0%BE%D0%BC%D0%BE%D1%89%D1%8C%D1%8E_mdevctl&amp;diff=4685"/>
		<updated>2026-04-19T22:41:33Z</updated>

		<summary type="html">&lt;p&gt;Vix: /* ДОПОЛНИЕЛЬНО */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Основные команды mdevctl==&lt;br /&gt;
* '''list.''' Выводит список активных или определённых устройств. С опцией --defined команда покажет все определённые в системе устройства, даже если они не активны.&lt;br /&gt;
* '''types.''' Предоставляет информацию о поддерживаемых на системе типах опосредованных устройств, включая количество экземпляров каждого типа, доступный API, а также название и описание от производителя.&lt;br /&gt;
* '''define.''' Определяет конфигурацию для устройства mdev. Можно указать UUID существующего устройства или полностью задать параметры.&lt;br /&gt;
* '''modify.''' Позволяет изменять конфигурацию устройства. Изменения для работающего устройства не вступят в силу до его остановки и перезапуска.&lt;br /&gt;
undefine. Удаляет определение конфигурации без изменения работающего устройства.&lt;br /&gt;
* '''start и stop.''' Управляют запуском и остановкой устройств.&lt;br /&gt;
==Рекомендации==&lt;br /&gt;
* '''Идентификация устройства'''. Устройства mdev идентифицируются по UUID (универсальному уникальному идентификатору). &lt;br /&gt;
* [https://manpages.ubuntu.com/manpages/focal/en/man8/mdevctl.8.html Источник]&lt;br /&gt;
* [https://github.com/mdevctl/mdevctl Источник]&lt;br /&gt;
* '''Конфигурация'''. Файлы конфигурации хранятся в директории /etc/mdevctl.d/ в формате JSON. Они находятся в поддиректориях, соответствующих родительскому устройству, а имена файлов соответствуют UUID устройства. &lt;br /&gt;
* [https://manpages.ubuntu.com/manpages/focal/en/man8/mdevctl.8.html Источник]&lt;br /&gt;
* '''Типы устройств'''. При использовании команды types можно увидеть доступные типы опосредованных устройств для конкретного GPU. Например, в некоторых случаях для Tesla P40 могут отображаться определённые профили. &lt;br /&gt;
* [https://forum.proxmox.com/threads/vgpu-tesla-p4-wrong-mdevctl-gpu.143247/page-2 Источник]&lt;br /&gt;
* '''Важно:''' для корректной работы vGPU (виртуального графического процессора) могут потребоваться дополнительные настройки, например, поддержка IOMMU (Input/Output Memory Management Unit) и SR-IOV (Single Root I/O Virtualization) в BIOS. &lt;br /&gt;
* [https://www.ispsystem.ru/docs/vmmanager-admin/klastery/ispol-zovanie-vgpu Источник]&lt;br /&gt;
* Если возникают проблемы с отображением типов устройств или управлением ими, стоит проверить версию драйвера NVIDIA и настройки конфигурации vGPU. В некоторых случаях может потребоваться обновление драйвера или корректировка конфигурационных файлов (например, vgpuConfig.xml).&lt;br /&gt;
==ДОПОЛНИЕЛЬНО==&lt;br /&gt;
* [https://docs.nvidia.com/vgpu/latest/grid-vgpu-user-guide/index.html How NVIDIA vGPU Software Is Used]&lt;br /&gt;
* [https://github.com/mdevctl/mdevctl mdevctl - a mediated device management utility for Linux]&lt;br /&gt;
* [https://wiki.astralinux.ru/brest/3.3/podklyuchenie-nvidia-vgpu-k-vm-302045322.html Подключение NVIDIA vGPU к ВМ Astra-Linux]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=%D0%9E%D1%81%D0%BE%D0%B1%D0%B5%D0%BD%D0%BD%D0%BE%D1%81%D1%82%D0%B8_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D1%8F_NVIDIA_P40_%D1%81_%D0%BF%D0%BE%D0%BC%D0%BE%D1%89%D1%8C%D1%8E_mdevctl&amp;diff=4684</id>
		<title>Особенности управления NVIDIA P40 с помощью mdevctl</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=%D0%9E%D1%81%D0%BE%D0%B1%D0%B5%D0%BD%D0%BD%D0%BE%D1%81%D1%82%D0%B8_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D1%8F_NVIDIA_P40_%D1%81_%D0%BF%D0%BE%D0%BC%D0%BE%D1%89%D1%8C%D1%8E_mdevctl&amp;diff=4684"/>
		<updated>2026-04-19T22:39:42Z</updated>

		<summary type="html">&lt;p&gt;Vix: /* ДОПОЛНИЕЛЬНО */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Основные команды mdevctl==&lt;br /&gt;
* '''list.''' Выводит список активных или определённых устройств. С опцией --defined команда покажет все определённые в системе устройства, даже если они не активны.&lt;br /&gt;
* '''types.''' Предоставляет информацию о поддерживаемых на системе типах опосредованных устройств, включая количество экземпляров каждого типа, доступный API, а также название и описание от производителя.&lt;br /&gt;
* '''define.''' Определяет конфигурацию для устройства mdev. Можно указать UUID существующего устройства или полностью задать параметры.&lt;br /&gt;
* '''modify.''' Позволяет изменять конфигурацию устройства. Изменения для работающего устройства не вступят в силу до его остановки и перезапуска.&lt;br /&gt;
undefine. Удаляет определение конфигурации без изменения работающего устройства.&lt;br /&gt;
* '''start и stop.''' Управляют запуском и остановкой устройств.&lt;br /&gt;
==Рекомендации==&lt;br /&gt;
* '''Идентификация устройства'''. Устройства mdev идентифицируются по UUID (универсальному уникальному идентификатору). &lt;br /&gt;
* [https://manpages.ubuntu.com/manpages/focal/en/man8/mdevctl.8.html Источник]&lt;br /&gt;
* [https://github.com/mdevctl/mdevctl Источник]&lt;br /&gt;
* '''Конфигурация'''. Файлы конфигурации хранятся в директории /etc/mdevctl.d/ в формате JSON. Они находятся в поддиректориях, соответствующих родительскому устройству, а имена файлов соответствуют UUID устройства. &lt;br /&gt;
* [https://manpages.ubuntu.com/manpages/focal/en/man8/mdevctl.8.html Источник]&lt;br /&gt;
* '''Типы устройств'''. При использовании команды types можно увидеть доступные типы опосредованных устройств для конкретного GPU. Например, в некоторых случаях для Tesla P40 могут отображаться определённые профили. &lt;br /&gt;
* [https://forum.proxmox.com/threads/vgpu-tesla-p4-wrong-mdevctl-gpu.143247/page-2 Источник]&lt;br /&gt;
* '''Важно:''' для корректной работы vGPU (виртуального графического процессора) могут потребоваться дополнительные настройки, например, поддержка IOMMU (Input/Output Memory Management Unit) и SR-IOV (Single Root I/O Virtualization) в BIOS. &lt;br /&gt;
* [https://www.ispsystem.ru/docs/vmmanager-admin/klastery/ispol-zovanie-vgpu Источник]&lt;br /&gt;
* Если возникают проблемы с отображением типов устройств или управлением ими, стоит проверить версию драйвера NVIDIA и настройки конфигурации vGPU. В некоторых случаях может потребоваться обновление драйвера или корректировка конфигурационных файлов (например, vgpuConfig.xml).&lt;br /&gt;
==ДОПОЛНИЕЛЬНО==&lt;br /&gt;
* [https://docs.nvidia.com/vgpu/latest/grid-vgpu-user-guide/index.html How NVIDIA vGPU Software Is Used]&lt;br /&gt;
* [https://github.com/mdevctl/mdevctl mdevctl - a mediated device management utility for Linux]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=%D0%9E%D1%81%D0%BE%D0%B1%D0%B5%D0%BD%D0%BD%D0%BE%D1%81%D1%82%D0%B8_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D1%8F_NVIDIA_P40_%D1%81_%D0%BF%D0%BE%D0%BC%D0%BE%D1%89%D1%8C%D1%8E_mdevctl&amp;diff=4683</id>
		<title>Особенности управления NVIDIA P40 с помощью mdevctl</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=%D0%9E%D1%81%D0%BE%D0%B1%D0%B5%D0%BD%D0%BD%D0%BE%D1%81%D1%82%D0%B8_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D1%8F_NVIDIA_P40_%D1%81_%D0%BF%D0%BE%D0%BC%D0%BE%D1%89%D1%8C%D1%8E_mdevctl&amp;diff=4683"/>
		<updated>2026-04-19T22:30:31Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Основные команды mdevctl==&lt;br /&gt;
* '''list.''' Выводит список активных или определённых устройств. С опцией --defined команда покажет все определённые в системе устройства, даже если они не активны.&lt;br /&gt;
* '''types.''' Предоставляет информацию о поддерживаемых на системе типах опосредованных устройств, включая количество экземпляров каждого типа, доступный API, а также название и описание от производителя.&lt;br /&gt;
* '''define.''' Определяет конфигурацию для устройства mdev. Можно указать UUID существующего устройства или полностью задать параметры.&lt;br /&gt;
* '''modify.''' Позволяет изменять конфигурацию устройства. Изменения для работающего устройства не вступят в силу до его остановки и перезапуска.&lt;br /&gt;
undefine. Удаляет определение конфигурации без изменения работающего устройства.&lt;br /&gt;
* '''start и stop.''' Управляют запуском и остановкой устройств.&lt;br /&gt;
==Рекомендации==&lt;br /&gt;
* '''Идентификация устройства'''. Устройства mdev идентифицируются по UUID (универсальному уникальному идентификатору). &lt;br /&gt;
* [https://manpages.ubuntu.com/manpages/focal/en/man8/mdevctl.8.html Источник]&lt;br /&gt;
* [https://github.com/mdevctl/mdevctl Источник]&lt;br /&gt;
* '''Конфигурация'''. Файлы конфигурации хранятся в директории /etc/mdevctl.d/ в формате JSON. Они находятся в поддиректориях, соответствующих родительскому устройству, а имена файлов соответствуют UUID устройства. &lt;br /&gt;
* [https://manpages.ubuntu.com/manpages/focal/en/man8/mdevctl.8.html Источник]&lt;br /&gt;
* '''Типы устройств'''. При использовании команды types можно увидеть доступные типы опосредованных устройств для конкретного GPU. Например, в некоторых случаях для Tesla P40 могут отображаться определённые профили. &lt;br /&gt;
* [https://forum.proxmox.com/threads/vgpu-tesla-p4-wrong-mdevctl-gpu.143247/page-2 Источник]&lt;br /&gt;
* '''Важно:''' для корректной работы vGPU (виртуального графического процессора) могут потребоваться дополнительные настройки, например, поддержка IOMMU (Input/Output Memory Management Unit) и SR-IOV (Single Root I/O Virtualization) в BIOS. &lt;br /&gt;
* [https://www.ispsystem.ru/docs/vmmanager-admin/klastery/ispol-zovanie-vgpu Источник]&lt;br /&gt;
* Если возникают проблемы с отображением типов устройств или управлением ими, стоит проверить версию драйвера NVIDIA и настройки конфигурации vGPU. В некоторых случаях может потребоваться обновление драйвера или корректировка конфигурационных файлов (например, vgpuConfig.xml).&lt;br /&gt;
==ДОПОЛНИЕЛЬНО==&lt;br /&gt;
* [https://docs.nvidia.com/vgpu/latest/grid-vgpu-user-guide/index.html How NVIDIA vGPU Software Is Used]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=%D0%9E%D1%81%D0%BE%D0%B1%D0%B5%D0%BD%D0%BD%D0%BE%D1%81%D1%82%D0%B8_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D1%8F_NVIDIA_P40_%D1%81_%D0%BF%D0%BE%D0%BC%D0%BE%D1%89%D1%8C%D1%8E_mdevctl&amp;diff=4682</id>
		<title>Особенности управления NVIDIA P40 с помощью mdevctl</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=%D0%9E%D1%81%D0%BE%D0%B1%D0%B5%D0%BD%D0%BD%D0%BE%D1%81%D1%82%D0%B8_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D1%8F_NVIDIA_P40_%D1%81_%D0%BF%D0%BE%D0%BC%D0%BE%D1%89%D1%8C%D1%8E_mdevctl&amp;diff=4682"/>
		<updated>2026-04-19T22:28:40Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;* '''Идентификация устройства'''. Устройства mdev идентифицируются по UUID (универсальному уникальному идентификатору). &lt;br /&gt;
* [https://manpages.ubuntu.com/manpages/focal/en/man8/mdevctl.8.html Источник]&lt;br /&gt;
* [https://github.com/mdevctl/mdevctl Источник]&lt;br /&gt;
* '''Конфигурация'''. Файлы конфигурации хранятся в директории /etc/mdevctl.d/ в формате JSON. Они находятся в поддиректориях, соответствующих родительскому устройству, а имена файлов соответствуют UUID устройства. &lt;br /&gt;
* [https://manpages.ubuntu.com/manpages/focal/en/man8/mdevctl.8.html Источник]&lt;br /&gt;
* '''Типы устройств'''. При использовании команды types можно увидеть доступные типы опосредованных устройств для конкретного GPU. Например, в некоторых случаях для Tesla P40 могут отображаться определённые профили. &lt;br /&gt;
* [https://forum.proxmox.com/threads/vgpu-tesla-p4-wrong-mdevctl-gpu.143247/page-2 Источник]&lt;br /&gt;
* '''Важно:''' для корректной работы vGPU (виртуального графического процессора) могут потребоваться дополнительные настройки, например, поддержка IOMMU (Input/Output Memory Management Unit) и SR-IOV (Single Root I/O Virtualization) в BIOS. &lt;br /&gt;
* [https://www.ispsystem.ru/docs/vmmanager-admin/klastery/ispol-zovanie-vgpu Источник]&lt;br /&gt;
* Если возникают проблемы с отображением типов устройств или управлением ими, стоит проверить версию драйвера NVIDIA и настройки конфигурации vGPU. В некоторых случаях может потребоваться обновление драйвера или корректировка конфигурационных файлов (например, vgpuConfig.xml).&lt;br /&gt;
==ДОПОЛНИЕЛЬНО==&lt;br /&gt;
* [https://docs.nvidia.com/vgpu/latest/grid-vgpu-user-guide/index.html How NVIDIA vGPU Software Is Used]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=NVIDIA_TESLA_P40_24Gb&amp;diff=4681</id>
		<title>NVIDIA TESLA P40 24Gb</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=NVIDIA_TESLA_P40_24Gb&amp;diff=4681"/>
		<updated>2026-04-19T22:26:56Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
* [https://wvthoog.nl/proxmox-7-vgpu-v2/ Proxmox 7 vGPU – v2]&lt;br /&gt;
* [https://www.tune-it.ru/web/ifsolo/blog/-/blogs/razblokirovka-vgpu-na-pol-zovatel-skih-videokartah-nvidia Разблокировка vGPU на пользовательских видеокартах NVIDIA]&lt;br /&gt;
* [https://docs.virtuozzo.com/virtuozzo_hybrid_infrastructure_4_7_admins_guide/index.html#preparing-nodes-gpu-passthrough.html Administrator Guide]&lt;br /&gt;
* [https://pve.proxmox.com/wiki/NVIDIA_vGPU_on_Proxmox_VE NVIDIA vGPU on Proxmox VE]&lt;br /&gt;
* [https://www.derekseaman.com/2024/07/proxmox-ve-8-2-windows-11-vgpu-vt-d-passthrough-with-intel-alder-lake.html Proxmox VE 8.2: Windows 11 vGPU (VT-d) Passthrough with Intel Alder Lake]&lt;br /&gt;
* [https://set.ogorodguru.ru/nvidia-grid-vgpu-linux/ Nvidia grid vgpu linux]&lt;br /&gt;
* [https://www.alibabacloud.com/help/en/egs/user-guide/use-cloud-assistant-to-automatically-install-and-upgrade-grid-drivers?spm=a2c63.p38356.help-menu-155040.d_1_5_2_1.19a1463afUkaci Install the GRID driver on a vGPU-accelerated Linux instance]&lt;br /&gt;
* [https://www.tune-it.ru/web/ifsolo/blog/-/blogs/razblokirovka-vgpu-na-pol-zovatel-skih-videokartah-nvidia Разблокировка vGPU на пользовательских видеокартах NVIDIA]&lt;br /&gt;
* [[Особенности управления NVIDIA P40 с помощью mdevctl]]&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://github.com/ProTechEx/vgpu-proxmox#nvidia-driver NVIDIA vGPU on Proxmox]&lt;br /&gt;
* [https://files.nvidia.space/Drivers/ nvidia.space/Drivers]&lt;br /&gt;
* [https://cloud.google.com/compute/docs/gpus/grid-drivers-table grid-drivers-table]&lt;br /&gt;
* [https://git.collinwebdesigns.de/oscar.krause/fastapi-dls Minimal Delegated License Service (DLS).]&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://archive.org/details/nvidiagpuarchive NVIDIA vGPU Archive]&lt;br /&gt;
* [https://github.com/NVIDIA/cuda-gdb/releases cuda-toolkit]&lt;br /&gt;
* [https://developer.nvidia.com/cuda-12-2-0-download-archive?target_os=Linux&amp;amp;target_arch=x86_64&amp;amp;Distribution=Debian&amp;amp;target_version=11&amp;amp;target_type=deb_local  CUDA Toolkit 12.2 Downloads]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=%D0%9E%D1%81%D0%BE%D0%B1%D0%B5%D0%BD%D0%BD%D0%BE%D1%81%D1%82%D0%B8_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D1%8F_NVIDIA_P40_%D1%81_%D0%BF%D0%BE%D0%BC%D0%BE%D1%89%D1%8C%D1%8E_mdevctl&amp;diff=4680</id>
		<title>Особенности управления NVIDIA P40 с помощью mdevctl</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=%D0%9E%D1%81%D0%BE%D0%B1%D0%B5%D0%BD%D0%BD%D0%BE%D1%81%D1%82%D0%B8_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D1%8F_NVIDIA_P40_%D1%81_%D0%BF%D0%BE%D0%BC%D0%BE%D1%89%D1%8C%D1%8E_mdevctl&amp;diff=4680"/>
		<updated>2026-04-19T22:26:34Z</updated>

		<summary type="html">&lt;p&gt;Vix: Новая страница: «* '''Идентификация устройства'''. Устройства mdev идентифицируются по UUID (универсальному уникальному идентификатору).  * [https://manpages.ubuntu.com/manpages/focal/en/man8/mdevctl.8.html Источник] * [https://github.com/mdevctl/mdevctl Источник] * '''Конфигурация'''. Файлы конфигурации хранятся в директори...»&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;* '''Идентификация устройства'''. Устройства mdev идентифицируются по UUID (универсальному уникальному идентификатору). &lt;br /&gt;
* [https://manpages.ubuntu.com/manpages/focal/en/man8/mdevctl.8.html Источник]&lt;br /&gt;
* [https://github.com/mdevctl/mdevctl Источник]&lt;br /&gt;
* '''Конфигурация'''. Файлы конфигурации хранятся в директории /etc/mdevctl.d/ в формате JSON. Они находятся в поддиректориях, соответствующих родительскому устройству, а имена файлов соответствуют UUID устройства. &lt;br /&gt;
* [https://manpages.ubuntu.com/manpages/focal/en/man8/mdevctl.8.html Источник]&lt;br /&gt;
* '''Типы устройств'''. При использовании команды types можно увидеть доступные типы опосредованных устройств для конкретного GPU. Например, в некоторых случаях для Tesla P40 могут отображаться определённые профили. &lt;br /&gt;
* [https://forum.proxmox.com/threads/vgpu-tesla-p4-wrong-mdevctl-gpu.143247/page-2 Источник]&lt;br /&gt;
* '''Важно:''' для корректной работы vGPU (виртуального графического процессора) могут потребоваться дополнительные настройки, например, поддержка IOMMU (Input/Output Memory Management Unit) и SR-IOV (Single Root I/O Virtualization) в BIOS. &lt;br /&gt;
* [https://www.ispsystem.ru/docs/vmmanager-admin/klastery/ispol-zovanie-vgpu Источник]&lt;br /&gt;
* Если возникают проблемы с отображением типов устройств или управлением ими, стоит проверить версию драйвера NVIDIA и настройки конфигурации vGPU. В некоторых случаях может потребоваться обновление драйвера или корректировка конфигурационных файлов (например, vgpuConfig.xml).&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=NVIDIA_TESLA_P40_24Gb&amp;diff=4679</id>
		<title>NVIDIA TESLA P40 24Gb</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=NVIDIA_TESLA_P40_24Gb&amp;diff=4679"/>
		<updated>2026-04-19T22:20:22Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
* [https://wvthoog.nl/proxmox-7-vgpu-v2/ Proxmox 7 vGPU – v2]&lt;br /&gt;
* [https://www.tune-it.ru/web/ifsolo/blog/-/blogs/razblokirovka-vgpu-na-pol-zovatel-skih-videokartah-nvidia Разблокировка vGPU на пользовательских видеокартах NVIDIA]&lt;br /&gt;
* [https://docs.virtuozzo.com/virtuozzo_hybrid_infrastructure_4_7_admins_guide/index.html#preparing-nodes-gpu-passthrough.html Administrator Guide]&lt;br /&gt;
* [https://pve.proxmox.com/wiki/NVIDIA_vGPU_on_Proxmox_VE NVIDIA vGPU on Proxmox VE]&lt;br /&gt;
* [https://www.derekseaman.com/2024/07/proxmox-ve-8-2-windows-11-vgpu-vt-d-passthrough-with-intel-alder-lake.html Proxmox VE 8.2: Windows 11 vGPU (VT-d) Passthrough with Intel Alder Lake]&lt;br /&gt;
* [https://set.ogorodguru.ru/nvidia-grid-vgpu-linux/ Nvidia grid vgpu linux]&lt;br /&gt;
* [https://www.alibabacloud.com/help/en/egs/user-guide/use-cloud-assistant-to-automatically-install-and-upgrade-grid-drivers?spm=a2c63.p38356.help-menu-155040.d_1_5_2_1.19a1463afUkaci Install the GRID driver on a vGPU-accelerated Linux instance]&lt;br /&gt;
* [https://www.tune-it.ru/web/ifsolo/blog/-/blogs/razblokirovka-vgpu-na-pol-zovatel-skih-videokartah-nvidia Разблокировка vGPU на пользовательских видеокартах NVIDIA]&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://github.com/ProTechEx/vgpu-proxmox#nvidia-driver NVIDIA vGPU on Proxmox]&lt;br /&gt;
* [https://files.nvidia.space/Drivers/ nvidia.space/Drivers]&lt;br /&gt;
* [https://cloud.google.com/compute/docs/gpus/grid-drivers-table grid-drivers-table]&lt;br /&gt;
* [https://git.collinwebdesigns.de/oscar.krause/fastapi-dls Minimal Delegated License Service (DLS).]&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://archive.org/details/nvidiagpuarchive NVIDIA vGPU Archive]&lt;br /&gt;
* [https://github.com/NVIDIA/cuda-gdb/releases cuda-toolkit]&lt;br /&gt;
* [https://developer.nvidia.com/cuda-12-2-0-download-archive?target_os=Linux&amp;amp;target_arch=x86_64&amp;amp;Distribution=Debian&amp;amp;target_version=11&amp;amp;target_type=deb_local  CUDA Toolkit 12.2 Downloads]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=NVIDIA_TESLA_P40_24Gb&amp;diff=4678</id>
		<title>NVIDIA TESLA P40 24Gb</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=NVIDIA_TESLA_P40_24Gb&amp;diff=4678"/>
		<updated>2026-04-19T22:19:47Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
* [https://wvthoog.nl/proxmox-7-vgpu-v2/ Proxmox 7 vGPU – v2]&lt;br /&gt;
* [https://www.tune-it.ru/web/ifsolo/blog/-/blogs/razblokirovka-vgpu-na-pol-zovatel-skih-videokartah-nvidia Разблокировка vGPU на пользовательских видеокартах NVIDIA]&lt;br /&gt;
* [https://docs.virtuozzo.com/virtuozzo_hybrid_infrastructure_4_7_admins_guide/index.html#preparing-nodes-gpu-passthrough.html Administrator Guide]&lt;br /&gt;
* [https://pve.proxmox.com/wiki/NVIDIA_vGPU_on_Proxmox_VE NVIDIA vGPU on Proxmox VE]&lt;br /&gt;
* [https://www.derekseaman.com/2024/07/proxmox-ve-8-2-windows-11-vgpu-vt-d-passthrough-with-intel-alder-lake.html Proxmox VE 8.2: Windows 11 vGPU (VT-d) Passthrough with Intel Alder Lake]&lt;br /&gt;
* [https://set.ogorodguru.ru/nvidia-grid-vgpu-linux/ Nvidia grid vgpu linux&lt;br /&gt;
Источник: https://set.ogorodguru.ru/nvidia-grid-vgpu-linux]&lt;br /&gt;
* [https://www.alibabacloud.com/help/en/egs/user-guide/use-cloud-assistant-to-automatically-install-and-upgrade-grid-drivers?spm=a2c63.p38356.help-menu-155040.d_1_5_2_1.19a1463afUkaci Install the GRID driver on a vGPU-accelerated Linux instance]&lt;br /&gt;
* [https://www.tune-it.ru/web/ifsolo/blog/-/blogs/razblokirovka-vgpu-na-pol-zovatel-skih-videokartah-nvidia Разблокировка vGPU на пользовательских видеокартах NVIDIA]&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://github.com/ProTechEx/vgpu-proxmox#nvidia-driver NVIDIA vGPU on Proxmox]&lt;br /&gt;
* [https://files.nvidia.space/Drivers/ nvidia.space/Drivers]&lt;br /&gt;
* [https://cloud.google.com/compute/docs/gpus/grid-drivers-table grid-drivers-table]&lt;br /&gt;
* [https://git.collinwebdesigns.de/oscar.krause/fastapi-dls Minimal Delegated License Service (DLS).]&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://archive.org/details/nvidiagpuarchive NVIDIA vGPU Archive]&lt;br /&gt;
* [https://github.com/NVIDIA/cuda-gdb/releases cuda-toolkit]&lt;br /&gt;
* [https://developer.nvidia.com/cuda-12-2-0-download-archive?target_os=Linux&amp;amp;target_arch=x86_64&amp;amp;Distribution=Debian&amp;amp;target_version=11&amp;amp;target_type=deb_local  CUDA Toolkit 12.2 Downloads]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=NVIDIA_TESLA_P40_24Gb&amp;diff=4677</id>
		<title>NVIDIA TESLA P40 24Gb</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=NVIDIA_TESLA_P40_24Gb&amp;diff=4677"/>
		<updated>2026-04-19T22:18:38Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
* [https://wvthoog.nl/proxmox-7-vgpu-v2/ Proxmox 7 vGPU – v2]&lt;br /&gt;
* [https://www.tune-it.ru/web/ifsolo/blog/-/blogs/razblokirovka-vgpu-na-pol-zovatel-skih-videokartah-nvidia Разблокировка vGPU на пользовательских видеокартах NVIDIA]&lt;br /&gt;
* [https://docs.virtuozzo.com/virtuozzo_hybrid_infrastructure_4_7_admins_guide/index.html#preparing-nodes-gpu-passthrough.html Administrator Guide]&lt;br /&gt;
* [https://pve.proxmox.com/wiki/NVIDIA_vGPU_on_Proxmox_VE NVIDIA vGPU on Proxmox VE]&lt;br /&gt;
* [https://www.derekseaman.com/2024/07/proxmox-ve-8-2-windows-11-vgpu-vt-d-passthrough-with-intel-alder-lake.html Proxmox VE 8.2: Windows 11 vGPU (VT-d) Passthrough with Intel Alder Lake]&lt;br /&gt;
* [https://set.ogorodguru.ru/nvidia-grid-vgpu-linux/ Nvidia grid vgpu linux&lt;br /&gt;
Источник: https://set.ogorodguru.ru/nvidia-grid-vgpu-linux]&lt;br /&gt;
* [https://www.alibabacloud.com/help/en/egs/user-guide/use-cloud-assistant-to-automatically-install-and-upgrade-grid-drivers?spm=a2c63.p38356.help-menu-155040.d_1_5_2_1.19a1463afUkaci Install the GRID driver on a vGPU-accelerated Linux instance]&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://github.com/ProTechEx/vgpu-proxmox#nvidia-driver NVIDIA vGPU on Proxmox]&lt;br /&gt;
* [https://files.nvidia.space/Drivers/ nvidia.space/Drivers]&lt;br /&gt;
* [https://cloud.google.com/compute/docs/gpus/grid-drivers-table grid-drivers-table]&lt;br /&gt;
* [https://git.collinwebdesigns.de/oscar.krause/fastapi-dls Minimal Delegated License Service (DLS).]&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://archive.org/details/nvidiagpuarchive NVIDIA vGPU Archive]&lt;br /&gt;
* [https://github.com/NVIDIA/cuda-gdb/releases cuda-toolkit]&lt;br /&gt;
* [https://developer.nvidia.com/cuda-12-2-0-download-archive?target_os=Linux&amp;amp;target_arch=x86_64&amp;amp;Distribution=Debian&amp;amp;target_version=11&amp;amp;target_type=deb_local  CUDA Toolkit 12.2 Downloads]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=Patroni_-_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4676</id>
		<title>Patroni - управление</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=Patroni_-_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4676"/>
		<updated>2026-04-17T10:03:31Z</updated>

		<summary type="html">&lt;p&gt;Vix: /* РЕШЕНИЕ ПРОБЛЕМ */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=='''БАЗОВЫЕ ОПЕРАЦИИ'''==&lt;br /&gt;
* Перезапуск конфигурации на ноде: &lt;br /&gt;
 patronictl -c /etc/patroni/config.yml restart имя-кластера имя-хоста (на котором перезапускаем)&lt;br /&gt;
* Вывести конфиг patroni:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml show-config&lt;br /&gt;
* Редактировать конфиг patroni:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml edit-config&lt;br /&gt;
* Посмотреть состояние кластера patroni:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml list&lt;br /&gt;
=='''РЕГЛАМЕНТНЫЕ ОПЕРАЦИИ'''==&lt;br /&gt;
* '''Сменить Лидера для изменений настроек или иное:'''&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml failover&lt;br /&gt;
* -  будет предложен список кандидатов, кто будет лидером, нужно ввести полное имя как в списке.&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* '''Изменение конфигурации Patroni''':&amp;lt;br&amp;gt;&lt;br /&gt;
В '''Patroni''' есть 2 секции в конфигурации, первая отвечает за поведение самого '''patroni''',&amp;lt;br&amp;gt; &lt;br /&gt;
вторая это настройки '''Postgresql'''.&amp;lt;br&amp;gt;&lt;br /&gt;
Секции:&amp;lt;br&amp;gt;&lt;br /&gt;
 '''bootstrap''' - (параметры при запуске Postgresql)&lt;br /&gt;
* Пример такого параметра в файле: /etc/patroni/config.yaml&lt;br /&gt;
 ...&lt;br /&gt;
 '''bootstrap:'''&lt;br /&gt;
   dcs:&lt;br /&gt;
     ttl: 100&lt;br /&gt;
     loop_wait: 10&lt;br /&gt;
     maximum_lag_on_failover: 1048576&lt;br /&gt;
     master_start_timeout: 5&lt;br /&gt;
     postgresql:&lt;br /&gt;
       use_pg_rewind: true&lt;br /&gt;
       use_slots: true&lt;br /&gt;
       parameters:&lt;br /&gt;
         max_connections: '260'&lt;br /&gt;
         wal_level: 'replica'&lt;br /&gt;
         wal_keep_segments: 1000&lt;br /&gt;
         max_replication_slots: 5&lt;br /&gt;
         max_wal_senders: 10&lt;br /&gt;
         hot_standby: 'on'&lt;br /&gt;
         '''max_locks_per_transaction: 512'''&lt;br /&gt;
         checkpoint_timeout: 15&lt;br /&gt;
 ...&lt;br /&gt;
или секции:&lt;br /&gt;
 '''pg_hba''' - (доступы на Postgresql)&amp;lt;br&amp;gt;&lt;br /&gt;
* Пример такого параметра в файле: /etc/patroni/config.yaml&lt;br /&gt;
 '''pg_hba:'''&lt;br /&gt;
   #Patroni&lt;br /&gt;
   host all all 0.0.0.0/0 md5&lt;br /&gt;
   host postgres mylogin 0.0.0.0/24 md5&lt;br /&gt;
   host all postgres 0.0.0.0/24 md5&lt;br /&gt;
   '''host replication replicator 10.111.6.11/32 md5'''&lt;br /&gt;
   '''host replication replicator 10.111.6.12/32 md5'''&lt;br /&gt;
&lt;br /&gt;
- изменения для них вносятся сначала через:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml edit-config&lt;br /&gt;
После изменений, при выходе конфигуратор спросит: &lt;br /&gt;
 '''Принять изменения?''' Отвечаем '''Да'''.&lt;br /&gt;
- потом проверяем применение через: &lt;br /&gt;
 patronictl -c /etc/patroni/config.yml show-config&lt;br /&gt;
- если вы вносите изменения через: &lt;br /&gt;
 patronictl -c /etc/patroni/config.yml edit-config&lt;br /&gt;
то изменения применяются сразу всем участникам кластера!&amp;lt;br&amp;gt;&lt;br /&gt;
Так же нужно понимать, что при '''перезагрузке''' сервиса '''Patroni''' на ноде, изменения не примутся, загрузится предыдущий файл конфигурации.&amp;lt;br&amp;gt;&lt;br /&gt;
* Поэтому так же необходимо вносить изменения в '''/etc/patroni/config.yml'''&lt;br /&gt;
- если все прошло успешно, необходимо перезапустить обе ноды поочереди через:&lt;br /&gt;
 systemctl restart patroni&lt;br /&gt;
- только после этого параметры уже будут в работе в самом Postgresql.&lt;br /&gt;
&lt;br /&gt;
* '''Изменение конфигурации Postgresql в Patroni''':&amp;lt;br&amp;gt;&lt;br /&gt;
Если вы внесли изменения в ресурсы виртуального контейнера, то необходимо скорректировать настройки '''PostgresPro'''.&amp;lt;br&amp;gt;&lt;br /&gt;
Для этого достаточно внести корректировки в /etc/patroni/config.yml, секции:&lt;br /&gt;
 ...&lt;br /&gt;
 postgresql:&lt;br /&gt;
 ....&lt;br /&gt;
   parameters:&lt;br /&gt;
     unix_socket_directories: '.'&lt;br /&gt;
     dynamic_shared_memory_type: 'posix'&lt;br /&gt;
     seq_page_cost: '0.1'&lt;br /&gt;
     superuser_reserved_connections: '2'&lt;br /&gt;
     huge_pages: 'off'&lt;br /&gt;
     track_io_timing: 'off'&lt;br /&gt;
     synchronous_commit: 'off'&lt;br /&gt;
     fsync: 'on'&lt;br /&gt;
     wal_sync_method: 'fdatasync'&lt;br /&gt;
     checkpoint_timeout: '15 min'&lt;br /&gt;
     random_page_cost: '0.1'&lt;br /&gt;
     cpu_operator_cost: '0.0025'&lt;br /&gt;
     logging_collector: 'on'&lt;br /&gt;
     log_timezone: 'Europe/Moscow'&lt;br /&gt;
     datestyle: 'iso, dmy'&lt;br /&gt;
     timezone: 'Europe/Moscow'&lt;br /&gt;
     lc_messages: 'ru_RU.UTF-8'&lt;br /&gt;
     lc_monetary: 'ru_RU.UTF-8'&lt;br /&gt;
     lc_numeric: 'ru_RU.UTF-8'&lt;br /&gt;
     lc_time: 'ru_RU.UTF-8'&lt;br /&gt;
     default_text_search_config: 'pg_catalog.russian'&lt;br /&gt;
     temp_buffers: '256 MB'&lt;br /&gt;
     max_files_per_process: '10000'&lt;br /&gt;
     commit_delay: '1000'&lt;br /&gt;
     from_collapse_limit: '8'&lt;br /&gt;
     join_collapse_limit: '8'&lt;br /&gt;
     autovacuum_max_workers: '2'&lt;br /&gt;
     vacuum_cost_limit: '200'&lt;br /&gt;
     autovacuum_naptime: '10s'&lt;br /&gt;
     autovacuum_vacuum_scale_factor: '0.01'&lt;br /&gt;
     autovacuum_analyze_scale_factor: '0.005'&lt;br /&gt;
     escape_string_warning: 'off'&lt;br /&gt;
     standard_conforming_strings: 'off'&lt;br /&gt;
     shared_preload_libraries: 'online_analyze, plantuner'&lt;br /&gt;
     online_analyze.threshold: '50'&lt;br /&gt;
     online_analyze.scale_factor: '0.1'&lt;br /&gt;
     online_analyze.enable: 'on'&lt;br /&gt;
     online_analyze.verbose: 'off'&lt;br /&gt;
     online_analyze.min_interval: '10000'&lt;br /&gt;
     online_analyze.table_type: 'temporary'&lt;br /&gt;
     plantuner.fix_empty_table: 'on'&lt;br /&gt;
     shared_buffers: '8192 MB'&lt;br /&gt;
     effective_cache_size: '23 GB'&lt;br /&gt;
     maintenance_work_mem: '420 MB'&lt;br /&gt;
     checkpoint_completion_target: '0.9'&lt;br /&gt;
     default_statistics_target: '500'&lt;br /&gt;
     effective_io_concurrency: '200'&lt;br /&gt;
     work_mem: '64 MB'&lt;br /&gt;
     min_wal_size: '5120 MB'&lt;br /&gt;
     max_wal_size: '10240 MB'&lt;br /&gt;
     wal_compression: 'on'&lt;br /&gt;
     wal_buffers: '16'&lt;br /&gt;
     wal_writer_delay: '200ms'&lt;br /&gt;
     wal_writer_flush_after: '1 MB'&lt;br /&gt;
     wal_keep_size: '22080 MB'&lt;br /&gt;
     bgwriter_delay: '200ms'&lt;br /&gt;
     bgwriter_lru_maxpages: '100'&lt;br /&gt;
     bgwriter_lru_multiplier: '2.0'&lt;br /&gt;
     bgwriter_flush_after: '0'&lt;br /&gt;
     max_worker_processes: '6'&lt;br /&gt;
     max_parallel_workers_per_gather: '3'&lt;br /&gt;
     max_parallel_workers: '6'&lt;br /&gt;
     max_parallel_maintenance_workers: '3'&lt;br /&gt;
     parallel_leader_participation: 'on'&lt;br /&gt;
     jit: 'on'&lt;br /&gt;
     max_slot_wal_keep_size: '1000 MB'&lt;br /&gt;
     maintenance_io_concurrency: '200'&lt;br /&gt;
     wal_recycle: 'on'&lt;br /&gt;
 ...&lt;br /&gt;
и перезагрузить сервис '''Patroni'''.&lt;br /&gt;
 systemctl reload patroni&lt;br /&gt;
или перезапустить&lt;br /&gt;
 systemctl restart patroni&lt;br /&gt;
&lt;br /&gt;
=='''РЕШЕНИЕ ПРОБЛЕМ'''==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
* '''ВНИМАНИЕ!!! -  если идет реплика, ни в коем случае не трогать Leader!!'''&lt;br /&gt;
* Сначала смотрим состояние кластера '''Patroni''':&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml list&lt;br /&gt;
&lt;br /&gt;
* Если есть '''State: creating replica''' - ждем...&lt;br /&gt;
 + Cluster: cspg (7330684258159679984) --------------------------+----+-----------+&lt;br /&gt;
 | Member  | Host             | Role    | State                  | TL | Lag in MB |&lt;br /&gt;
 +---------+------------------+---------+------------------------+----+-----------+&lt;br /&gt;
 | pg1     | pg1.local.net    | Leader  | running                |  5 |           |&lt;br /&gt;
 | pg2     | pg2.local.net    | Replica | '''creating replica'''       |    |   unknown |&lt;br /&gt;
 +---------+------------------+---------+------------------------+----+-----------+&lt;br /&gt;
&lt;br /&gt;
* Если ответ такой:&lt;br /&gt;
 + Cluster: cs1pgpro (7330684258159679984) -------+----+-----------+&lt;br /&gt;
 | Member  | Host             | Role    | State   | TL | Lag in MB |&lt;br /&gt;
 +---------+------------------+---------+---------+----+-----------+&lt;br /&gt;
 | pg1 | pg1.local.net        | Leader  | running |  5 |           |&lt;br /&gt;
 | pg2 | pg2.local.net        | Replica | running |  5 |         0 |&lt;br /&gt;
 +---------+------------------+---------+---------+----+-----------+&lt;br /&gt;
- можно проводить операции по переключению или иное.&lt;br /&gt;
&lt;br /&gt;
* '''Шаги для восстановления синхронизации:'''&lt;br /&gt;
1. Определите сбойную ноду. Для этого на любой из работавших нод выполните команду:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml list&lt;br /&gt;
* Если наблюдается увеличивающийся лаг (задержка в репликации), это указывает на проблему с синхронизацией данных на конкретной ноде. &lt;br /&gt;
&lt;br /&gt;
2. Выполните команду reinit на сбойной ноде:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml reinit &amp;lt;имя_кластера&amp;gt; &amp;lt;имя_ноды&amp;gt;&lt;br /&gt;
&lt;br /&gt;
3. Если проблема с синхронизацией не решается, остановите patroni на сбойной ноде:&lt;br /&gt;
 systemctl stop patroni&lt;br /&gt;
3.1. Удалите каталог базы и запустите снова patroni.&amp;lt;br&amp;gt;&lt;br /&gt;
3.2. Убедитесь что синхронизация идет:&lt;br /&gt;
 systemctl status patroni&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml list&lt;br /&gt;
&lt;br /&gt;
=='''ДОКУМЕНТАЦИЯ'''==&lt;br /&gt;
* [https://support.qbpro.ru/images/b/bb/Patroni-readthedocs-io-en-latest.pdf '''Patroni Documentation EN''']&lt;br /&gt;
* [https://docs.arenadata.io/ru/ADPG/current/how-to/configure-ha/switchover.html Переключение с лидера на реплику в ADPG]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=Patroni_-_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4675</id>
		<title>Patroni - управление</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=Patroni_-_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4675"/>
		<updated>2026-04-17T10:03:09Z</updated>

		<summary type="html">&lt;p&gt;Vix: /* РЕШЕНИЕ ПРОБЛЕМ */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=='''БАЗОВЫЕ ОПЕРАЦИИ'''==&lt;br /&gt;
* Перезапуск конфигурации на ноде: &lt;br /&gt;
 patronictl -c /etc/patroni/config.yml restart имя-кластера имя-хоста (на котором перезапускаем)&lt;br /&gt;
* Вывести конфиг patroni:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml show-config&lt;br /&gt;
* Редактировать конфиг patroni:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml edit-config&lt;br /&gt;
* Посмотреть состояние кластера patroni:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml list&lt;br /&gt;
=='''РЕГЛАМЕНТНЫЕ ОПЕРАЦИИ'''==&lt;br /&gt;
* '''Сменить Лидера для изменений настроек или иное:'''&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml failover&lt;br /&gt;
* -  будет предложен список кандидатов, кто будет лидером, нужно ввести полное имя как в списке.&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* '''Изменение конфигурации Patroni''':&amp;lt;br&amp;gt;&lt;br /&gt;
В '''Patroni''' есть 2 секции в конфигурации, первая отвечает за поведение самого '''patroni''',&amp;lt;br&amp;gt; &lt;br /&gt;
вторая это настройки '''Postgresql'''.&amp;lt;br&amp;gt;&lt;br /&gt;
Секции:&amp;lt;br&amp;gt;&lt;br /&gt;
 '''bootstrap''' - (параметры при запуске Postgresql)&lt;br /&gt;
* Пример такого параметра в файле: /etc/patroni/config.yaml&lt;br /&gt;
 ...&lt;br /&gt;
 '''bootstrap:'''&lt;br /&gt;
   dcs:&lt;br /&gt;
     ttl: 100&lt;br /&gt;
     loop_wait: 10&lt;br /&gt;
     maximum_lag_on_failover: 1048576&lt;br /&gt;
     master_start_timeout: 5&lt;br /&gt;
     postgresql:&lt;br /&gt;
       use_pg_rewind: true&lt;br /&gt;
       use_slots: true&lt;br /&gt;
       parameters:&lt;br /&gt;
         max_connections: '260'&lt;br /&gt;
         wal_level: 'replica'&lt;br /&gt;
         wal_keep_segments: 1000&lt;br /&gt;
         max_replication_slots: 5&lt;br /&gt;
         max_wal_senders: 10&lt;br /&gt;
         hot_standby: 'on'&lt;br /&gt;
         '''max_locks_per_transaction: 512'''&lt;br /&gt;
         checkpoint_timeout: 15&lt;br /&gt;
 ...&lt;br /&gt;
или секции:&lt;br /&gt;
 '''pg_hba''' - (доступы на Postgresql)&amp;lt;br&amp;gt;&lt;br /&gt;
* Пример такого параметра в файле: /etc/patroni/config.yaml&lt;br /&gt;
 '''pg_hba:'''&lt;br /&gt;
   #Patroni&lt;br /&gt;
   host all all 0.0.0.0/0 md5&lt;br /&gt;
   host postgres mylogin 0.0.0.0/24 md5&lt;br /&gt;
   host all postgres 0.0.0.0/24 md5&lt;br /&gt;
   '''host replication replicator 10.111.6.11/32 md5'''&lt;br /&gt;
   '''host replication replicator 10.111.6.12/32 md5'''&lt;br /&gt;
&lt;br /&gt;
- изменения для них вносятся сначала через:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml edit-config&lt;br /&gt;
После изменений, при выходе конфигуратор спросит: &lt;br /&gt;
 '''Принять изменения?''' Отвечаем '''Да'''.&lt;br /&gt;
- потом проверяем применение через: &lt;br /&gt;
 patronictl -c /etc/patroni/config.yml show-config&lt;br /&gt;
- если вы вносите изменения через: &lt;br /&gt;
 patronictl -c /etc/patroni/config.yml edit-config&lt;br /&gt;
то изменения применяются сразу всем участникам кластера!&amp;lt;br&amp;gt;&lt;br /&gt;
Так же нужно понимать, что при '''перезагрузке''' сервиса '''Patroni''' на ноде, изменения не примутся, загрузится предыдущий файл конфигурации.&amp;lt;br&amp;gt;&lt;br /&gt;
* Поэтому так же необходимо вносить изменения в '''/etc/patroni/config.yml'''&lt;br /&gt;
- если все прошло успешно, необходимо перезапустить обе ноды поочереди через:&lt;br /&gt;
 systemctl restart patroni&lt;br /&gt;
- только после этого параметры уже будут в работе в самом Postgresql.&lt;br /&gt;
&lt;br /&gt;
* '''Изменение конфигурации Postgresql в Patroni''':&amp;lt;br&amp;gt;&lt;br /&gt;
Если вы внесли изменения в ресурсы виртуального контейнера, то необходимо скорректировать настройки '''PostgresPro'''.&amp;lt;br&amp;gt;&lt;br /&gt;
Для этого достаточно внести корректировки в /etc/patroni/config.yml, секции:&lt;br /&gt;
 ...&lt;br /&gt;
 postgresql:&lt;br /&gt;
 ....&lt;br /&gt;
   parameters:&lt;br /&gt;
     unix_socket_directories: '.'&lt;br /&gt;
     dynamic_shared_memory_type: 'posix'&lt;br /&gt;
     seq_page_cost: '0.1'&lt;br /&gt;
     superuser_reserved_connections: '2'&lt;br /&gt;
     huge_pages: 'off'&lt;br /&gt;
     track_io_timing: 'off'&lt;br /&gt;
     synchronous_commit: 'off'&lt;br /&gt;
     fsync: 'on'&lt;br /&gt;
     wal_sync_method: 'fdatasync'&lt;br /&gt;
     checkpoint_timeout: '15 min'&lt;br /&gt;
     random_page_cost: '0.1'&lt;br /&gt;
     cpu_operator_cost: '0.0025'&lt;br /&gt;
     logging_collector: 'on'&lt;br /&gt;
     log_timezone: 'Europe/Moscow'&lt;br /&gt;
     datestyle: 'iso, dmy'&lt;br /&gt;
     timezone: 'Europe/Moscow'&lt;br /&gt;
     lc_messages: 'ru_RU.UTF-8'&lt;br /&gt;
     lc_monetary: 'ru_RU.UTF-8'&lt;br /&gt;
     lc_numeric: 'ru_RU.UTF-8'&lt;br /&gt;
     lc_time: 'ru_RU.UTF-8'&lt;br /&gt;
     default_text_search_config: 'pg_catalog.russian'&lt;br /&gt;
     temp_buffers: '256 MB'&lt;br /&gt;
     max_files_per_process: '10000'&lt;br /&gt;
     commit_delay: '1000'&lt;br /&gt;
     from_collapse_limit: '8'&lt;br /&gt;
     join_collapse_limit: '8'&lt;br /&gt;
     autovacuum_max_workers: '2'&lt;br /&gt;
     vacuum_cost_limit: '200'&lt;br /&gt;
     autovacuum_naptime: '10s'&lt;br /&gt;
     autovacuum_vacuum_scale_factor: '0.01'&lt;br /&gt;
     autovacuum_analyze_scale_factor: '0.005'&lt;br /&gt;
     escape_string_warning: 'off'&lt;br /&gt;
     standard_conforming_strings: 'off'&lt;br /&gt;
     shared_preload_libraries: 'online_analyze, plantuner'&lt;br /&gt;
     online_analyze.threshold: '50'&lt;br /&gt;
     online_analyze.scale_factor: '0.1'&lt;br /&gt;
     online_analyze.enable: 'on'&lt;br /&gt;
     online_analyze.verbose: 'off'&lt;br /&gt;
     online_analyze.min_interval: '10000'&lt;br /&gt;
     online_analyze.table_type: 'temporary'&lt;br /&gt;
     plantuner.fix_empty_table: 'on'&lt;br /&gt;
     shared_buffers: '8192 MB'&lt;br /&gt;
     effective_cache_size: '23 GB'&lt;br /&gt;
     maintenance_work_mem: '420 MB'&lt;br /&gt;
     checkpoint_completion_target: '0.9'&lt;br /&gt;
     default_statistics_target: '500'&lt;br /&gt;
     effective_io_concurrency: '200'&lt;br /&gt;
     work_mem: '64 MB'&lt;br /&gt;
     min_wal_size: '5120 MB'&lt;br /&gt;
     max_wal_size: '10240 MB'&lt;br /&gt;
     wal_compression: 'on'&lt;br /&gt;
     wal_buffers: '16'&lt;br /&gt;
     wal_writer_delay: '200ms'&lt;br /&gt;
     wal_writer_flush_after: '1 MB'&lt;br /&gt;
     wal_keep_size: '22080 MB'&lt;br /&gt;
     bgwriter_delay: '200ms'&lt;br /&gt;
     bgwriter_lru_maxpages: '100'&lt;br /&gt;
     bgwriter_lru_multiplier: '2.0'&lt;br /&gt;
     bgwriter_flush_after: '0'&lt;br /&gt;
     max_worker_processes: '6'&lt;br /&gt;
     max_parallel_workers_per_gather: '3'&lt;br /&gt;
     max_parallel_workers: '6'&lt;br /&gt;
     max_parallel_maintenance_workers: '3'&lt;br /&gt;
     parallel_leader_participation: 'on'&lt;br /&gt;
     jit: 'on'&lt;br /&gt;
     max_slot_wal_keep_size: '1000 MB'&lt;br /&gt;
     maintenance_io_concurrency: '200'&lt;br /&gt;
     wal_recycle: 'on'&lt;br /&gt;
 ...&lt;br /&gt;
и перезагрузить сервис '''Patroni'''.&lt;br /&gt;
 systemctl reload patroni&lt;br /&gt;
или перезапустить&lt;br /&gt;
 systemctl restart patroni&lt;br /&gt;
&lt;br /&gt;
=='''РЕШЕНИЕ ПРОБЛЕМ'''==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
* '''ВНИМАНИЕ!!! -  если идет реплика, ни в коем случае не трогать Leader!!'''&lt;br /&gt;
* Сначала смотрим состояние кластера '''Patroni''':&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml list&lt;br /&gt;
&lt;br /&gt;
* Если есть '''State: creating replica''' - ждем...&lt;br /&gt;
 + Cluster: cspg (7330684258159679984) --------------------------+----+-----------+&lt;br /&gt;
 | Member  | Host             | Role    | State                  | TL | Lag in MB |&lt;br /&gt;
 +---------+------------------+---------+------------------------+----+-----------+&lt;br /&gt;
 | pg1     | pg1.local.net    | Leader  | running                |  5 |           |&lt;br /&gt;
 | pg2     | pg2.local.net    | Replica | '''creating replica'''       |    |   unknown |&lt;br /&gt;
 +---------+------------------+---------+------------------------+----+-----------+&lt;br /&gt;
&lt;br /&gt;
* Если ответ такой:&lt;br /&gt;
 + Cluster: cs1pgpro (7330684258159679984) -------+----+-----------+&lt;br /&gt;
 | Member  | Host             | Role    | State   | TL | Lag in MB |&lt;br /&gt;
 +---------+------------------+---------+---------+----+-----------+&lt;br /&gt;
 | pg1 | pg1.local.net        | Leader  | running |  5 |           |&lt;br /&gt;
 | pg2 | pg2.local.net        | Replica | running |  5 |         0 |&lt;br /&gt;
 +---------+------------------+---------+---------+----+-----------+&lt;br /&gt;
- можно проводить операции по переключению или иное.&lt;br /&gt;
&lt;br /&gt;
* '''Шаги для восстановления синхронизации:'''&lt;br /&gt;
1. Определите сбойную ноду. Для этого на любой из работавших нод выполните команду:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml list&lt;br /&gt;
* Если наблюдается увеличивающийся лаг (задержка в репликации), это указывает на проблему с синхронизацией данных на конкретной ноде. &lt;br /&gt;
&lt;br /&gt;
2. Выполните команду reinit на сбойной ноде:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml reinit &amp;lt;имя_кластера&amp;gt; &amp;lt;имя_ноды&amp;gt;&lt;br /&gt;
&lt;br /&gt;
3. Если проблема с синхронизацией не решается, остановите patroni на сбойной ноде:&lt;br /&gt;
 systemctl stop patroni&lt;br /&gt;
3.1. Удалите каталог базы и запустите снова patroni.&lt;br /&gt;
3.2. Убедитесь что синхронизация идет:&lt;br /&gt;
 systemctl status patroni&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml list&lt;br /&gt;
&lt;br /&gt;
=='''ДОКУМЕНТАЦИЯ'''==&lt;br /&gt;
* [https://support.qbpro.ru/images/b/bb/Patroni-readthedocs-io-en-latest.pdf '''Patroni Documentation EN''']&lt;br /&gt;
* [https://docs.arenadata.io/ru/ADPG/current/how-to/configure-ha/switchover.html Переключение с лидера на реплику в ADPG]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=Patroni_-_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4674</id>
		<title>Patroni - управление</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=Patroni_-_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4674"/>
		<updated>2026-04-17T09:59:28Z</updated>

		<summary type="html">&lt;p&gt;Vix: /* РЕШЕНИЕ ПРОБЛЕМ */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=='''БАЗОВЫЕ ОПЕРАЦИИ'''==&lt;br /&gt;
* Перезапуск конфигурации на ноде: &lt;br /&gt;
 patronictl -c /etc/patroni/config.yml restart имя-кластера имя-хоста (на котором перезапускаем)&lt;br /&gt;
* Вывести конфиг patroni:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml show-config&lt;br /&gt;
* Редактировать конфиг patroni:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml edit-config&lt;br /&gt;
* Посмотреть состояние кластера patroni:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml list&lt;br /&gt;
=='''РЕГЛАМЕНТНЫЕ ОПЕРАЦИИ'''==&lt;br /&gt;
* '''Сменить Лидера для изменений настроек или иное:'''&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml failover&lt;br /&gt;
* -  будет предложен список кандидатов, кто будет лидером, нужно ввести полное имя как в списке.&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* '''Изменение конфигурации Patroni''':&amp;lt;br&amp;gt;&lt;br /&gt;
В '''Patroni''' есть 2 секции в конфигурации, первая отвечает за поведение самого '''patroni''',&amp;lt;br&amp;gt; &lt;br /&gt;
вторая это настройки '''Postgresql'''.&amp;lt;br&amp;gt;&lt;br /&gt;
Секции:&amp;lt;br&amp;gt;&lt;br /&gt;
 '''bootstrap''' - (параметры при запуске Postgresql)&lt;br /&gt;
* Пример такого параметра в файле: /etc/patroni/config.yaml&lt;br /&gt;
 ...&lt;br /&gt;
 '''bootstrap:'''&lt;br /&gt;
   dcs:&lt;br /&gt;
     ttl: 100&lt;br /&gt;
     loop_wait: 10&lt;br /&gt;
     maximum_lag_on_failover: 1048576&lt;br /&gt;
     master_start_timeout: 5&lt;br /&gt;
     postgresql:&lt;br /&gt;
       use_pg_rewind: true&lt;br /&gt;
       use_slots: true&lt;br /&gt;
       parameters:&lt;br /&gt;
         max_connections: '260'&lt;br /&gt;
         wal_level: 'replica'&lt;br /&gt;
         wal_keep_segments: 1000&lt;br /&gt;
         max_replication_slots: 5&lt;br /&gt;
         max_wal_senders: 10&lt;br /&gt;
         hot_standby: 'on'&lt;br /&gt;
         '''max_locks_per_transaction: 512'''&lt;br /&gt;
         checkpoint_timeout: 15&lt;br /&gt;
 ...&lt;br /&gt;
или секции:&lt;br /&gt;
 '''pg_hba''' - (доступы на Postgresql)&amp;lt;br&amp;gt;&lt;br /&gt;
* Пример такого параметра в файле: /etc/patroni/config.yaml&lt;br /&gt;
 '''pg_hba:'''&lt;br /&gt;
   #Patroni&lt;br /&gt;
   host all all 0.0.0.0/0 md5&lt;br /&gt;
   host postgres mylogin 0.0.0.0/24 md5&lt;br /&gt;
   host all postgres 0.0.0.0/24 md5&lt;br /&gt;
   '''host replication replicator 10.111.6.11/32 md5'''&lt;br /&gt;
   '''host replication replicator 10.111.6.12/32 md5'''&lt;br /&gt;
&lt;br /&gt;
- изменения для них вносятся сначала через:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml edit-config&lt;br /&gt;
После изменений, при выходе конфигуратор спросит: &lt;br /&gt;
 '''Принять изменения?''' Отвечаем '''Да'''.&lt;br /&gt;
- потом проверяем применение через: &lt;br /&gt;
 patronictl -c /etc/patroni/config.yml show-config&lt;br /&gt;
- если вы вносите изменения через: &lt;br /&gt;
 patronictl -c /etc/patroni/config.yml edit-config&lt;br /&gt;
то изменения применяются сразу всем участникам кластера!&amp;lt;br&amp;gt;&lt;br /&gt;
Так же нужно понимать, что при '''перезагрузке''' сервиса '''Patroni''' на ноде, изменения не примутся, загрузится предыдущий файл конфигурации.&amp;lt;br&amp;gt;&lt;br /&gt;
* Поэтому так же необходимо вносить изменения в '''/etc/patroni/config.yml'''&lt;br /&gt;
- если все прошло успешно, необходимо перезапустить обе ноды поочереди через:&lt;br /&gt;
 systemctl restart patroni&lt;br /&gt;
- только после этого параметры уже будут в работе в самом Postgresql.&lt;br /&gt;
&lt;br /&gt;
* '''Изменение конфигурации Postgresql в Patroni''':&amp;lt;br&amp;gt;&lt;br /&gt;
Если вы внесли изменения в ресурсы виртуального контейнера, то необходимо скорректировать настройки '''PostgresPro'''.&amp;lt;br&amp;gt;&lt;br /&gt;
Для этого достаточно внести корректировки в /etc/patroni/config.yml, секции:&lt;br /&gt;
 ...&lt;br /&gt;
 postgresql:&lt;br /&gt;
 ....&lt;br /&gt;
   parameters:&lt;br /&gt;
     unix_socket_directories: '.'&lt;br /&gt;
     dynamic_shared_memory_type: 'posix'&lt;br /&gt;
     seq_page_cost: '0.1'&lt;br /&gt;
     superuser_reserved_connections: '2'&lt;br /&gt;
     huge_pages: 'off'&lt;br /&gt;
     track_io_timing: 'off'&lt;br /&gt;
     synchronous_commit: 'off'&lt;br /&gt;
     fsync: 'on'&lt;br /&gt;
     wal_sync_method: 'fdatasync'&lt;br /&gt;
     checkpoint_timeout: '15 min'&lt;br /&gt;
     random_page_cost: '0.1'&lt;br /&gt;
     cpu_operator_cost: '0.0025'&lt;br /&gt;
     logging_collector: 'on'&lt;br /&gt;
     log_timezone: 'Europe/Moscow'&lt;br /&gt;
     datestyle: 'iso, dmy'&lt;br /&gt;
     timezone: 'Europe/Moscow'&lt;br /&gt;
     lc_messages: 'ru_RU.UTF-8'&lt;br /&gt;
     lc_monetary: 'ru_RU.UTF-8'&lt;br /&gt;
     lc_numeric: 'ru_RU.UTF-8'&lt;br /&gt;
     lc_time: 'ru_RU.UTF-8'&lt;br /&gt;
     default_text_search_config: 'pg_catalog.russian'&lt;br /&gt;
     temp_buffers: '256 MB'&lt;br /&gt;
     max_files_per_process: '10000'&lt;br /&gt;
     commit_delay: '1000'&lt;br /&gt;
     from_collapse_limit: '8'&lt;br /&gt;
     join_collapse_limit: '8'&lt;br /&gt;
     autovacuum_max_workers: '2'&lt;br /&gt;
     vacuum_cost_limit: '200'&lt;br /&gt;
     autovacuum_naptime: '10s'&lt;br /&gt;
     autovacuum_vacuum_scale_factor: '0.01'&lt;br /&gt;
     autovacuum_analyze_scale_factor: '0.005'&lt;br /&gt;
     escape_string_warning: 'off'&lt;br /&gt;
     standard_conforming_strings: 'off'&lt;br /&gt;
     shared_preload_libraries: 'online_analyze, plantuner'&lt;br /&gt;
     online_analyze.threshold: '50'&lt;br /&gt;
     online_analyze.scale_factor: '0.1'&lt;br /&gt;
     online_analyze.enable: 'on'&lt;br /&gt;
     online_analyze.verbose: 'off'&lt;br /&gt;
     online_analyze.min_interval: '10000'&lt;br /&gt;
     online_analyze.table_type: 'temporary'&lt;br /&gt;
     plantuner.fix_empty_table: 'on'&lt;br /&gt;
     shared_buffers: '8192 MB'&lt;br /&gt;
     effective_cache_size: '23 GB'&lt;br /&gt;
     maintenance_work_mem: '420 MB'&lt;br /&gt;
     checkpoint_completion_target: '0.9'&lt;br /&gt;
     default_statistics_target: '500'&lt;br /&gt;
     effective_io_concurrency: '200'&lt;br /&gt;
     work_mem: '64 MB'&lt;br /&gt;
     min_wal_size: '5120 MB'&lt;br /&gt;
     max_wal_size: '10240 MB'&lt;br /&gt;
     wal_compression: 'on'&lt;br /&gt;
     wal_buffers: '16'&lt;br /&gt;
     wal_writer_delay: '200ms'&lt;br /&gt;
     wal_writer_flush_after: '1 MB'&lt;br /&gt;
     wal_keep_size: '22080 MB'&lt;br /&gt;
     bgwriter_delay: '200ms'&lt;br /&gt;
     bgwriter_lru_maxpages: '100'&lt;br /&gt;
     bgwriter_lru_multiplier: '2.0'&lt;br /&gt;
     bgwriter_flush_after: '0'&lt;br /&gt;
     max_worker_processes: '6'&lt;br /&gt;
     max_parallel_workers_per_gather: '3'&lt;br /&gt;
     max_parallel_workers: '6'&lt;br /&gt;
     max_parallel_maintenance_workers: '3'&lt;br /&gt;
     parallel_leader_participation: 'on'&lt;br /&gt;
     jit: 'on'&lt;br /&gt;
     max_slot_wal_keep_size: '1000 MB'&lt;br /&gt;
     maintenance_io_concurrency: '200'&lt;br /&gt;
     wal_recycle: 'on'&lt;br /&gt;
 ...&lt;br /&gt;
и перезагрузить сервис '''Patroni'''.&lt;br /&gt;
 systemctl reload patroni&lt;br /&gt;
или перезапустить&lt;br /&gt;
 systemctl restart patroni&lt;br /&gt;
&lt;br /&gt;
=='''РЕШЕНИЕ ПРОБЛЕМ'''==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
* '''ВНИМАНИЕ!!! -  если идет реплика, ни в коем случае не трогать Leader!!'''&lt;br /&gt;
* Сначала смотрим состояние кластера '''Patroni''':&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml list&lt;br /&gt;
&lt;br /&gt;
* Если есть '''State: creating replica''' - ждем...&lt;br /&gt;
 + Cluster: cspg (7330684258159679984) --------------------------+----+-----------+&lt;br /&gt;
 | Member  | Host             | Role    | State                  | TL | Lag in MB |&lt;br /&gt;
 +---------+------------------+---------+------------------------+----+-----------+&lt;br /&gt;
 | pg1     | pg1.local.net    | Leader  | running                |  5 |           |&lt;br /&gt;
 | pg2     | pg2.local.net    | Replica | '''creating replica'''       |    |   unknown |&lt;br /&gt;
 +---------+------------------+---------+------------------------+----+-----------+&lt;br /&gt;
&lt;br /&gt;
* Если ответ такой:&lt;br /&gt;
 + Cluster: cs1pgpro (7330684258159679984) -------+----+-----------+&lt;br /&gt;
 | Member  | Host             | Role    | State   | TL | Lag in MB |&lt;br /&gt;
 +---------+------------------+---------+---------+----+-----------+&lt;br /&gt;
 | pg1 | pg1.local.net        | Leader  | running |  5 |           |&lt;br /&gt;
 | pg2 | pg2.local.net        | Replica | running |  5 |         0 |&lt;br /&gt;
 +---------+------------------+---------+---------+----+-----------+&lt;br /&gt;
- можно проводить операции по переключению или иное.&lt;br /&gt;
&lt;br /&gt;
* '''Шаги для восстановления синхронизации:'''&lt;br /&gt;
1. Определите сбойную ноду. Для этого на любой из работавших нод выполните команду:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml list&lt;br /&gt;
* Если наблюдается увеличивающийся лаг (задержка в репликации), это указывает на проблему с синхронизацией данных на конкретной ноде. &lt;br /&gt;
&lt;br /&gt;
2. Выполните команду reinit на сбойной ноде:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml reinit &amp;lt;имя_кластера&amp;gt; &amp;lt;имя_ноды&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=='''ДОКУМЕНТАЦИЯ'''==&lt;br /&gt;
* [https://support.qbpro.ru/images/b/bb/Patroni-readthedocs-io-en-latest.pdf '''Patroni Documentation EN''']&lt;br /&gt;
* [https://docs.arenadata.io/ru/ADPG/current/how-to/configure-ha/switchover.html Переключение с лидера на реплику в ADPG]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=Patroni_-_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4673</id>
		<title>Patroni - управление</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=Patroni_-_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4673"/>
		<updated>2026-04-17T09:58:33Z</updated>

		<summary type="html">&lt;p&gt;Vix: /* РЕШЕНИЕ ПРОБЛЕМ */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=='''БАЗОВЫЕ ОПЕРАЦИИ'''==&lt;br /&gt;
* Перезапуск конфигурации на ноде: &lt;br /&gt;
 patronictl -c /etc/patroni/config.yml restart имя-кластера имя-хоста (на котором перезапускаем)&lt;br /&gt;
* Вывести конфиг patroni:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml show-config&lt;br /&gt;
* Редактировать конфиг patroni:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml edit-config&lt;br /&gt;
* Посмотреть состояние кластера patroni:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml list&lt;br /&gt;
=='''РЕГЛАМЕНТНЫЕ ОПЕРАЦИИ'''==&lt;br /&gt;
* '''Сменить Лидера для изменений настроек или иное:'''&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml failover&lt;br /&gt;
* -  будет предложен список кандидатов, кто будет лидером, нужно ввести полное имя как в списке.&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* '''Изменение конфигурации Patroni''':&amp;lt;br&amp;gt;&lt;br /&gt;
В '''Patroni''' есть 2 секции в конфигурации, первая отвечает за поведение самого '''patroni''',&amp;lt;br&amp;gt; &lt;br /&gt;
вторая это настройки '''Postgresql'''.&amp;lt;br&amp;gt;&lt;br /&gt;
Секции:&amp;lt;br&amp;gt;&lt;br /&gt;
 '''bootstrap''' - (параметры при запуске Postgresql)&lt;br /&gt;
* Пример такого параметра в файле: /etc/patroni/config.yaml&lt;br /&gt;
 ...&lt;br /&gt;
 '''bootstrap:'''&lt;br /&gt;
   dcs:&lt;br /&gt;
     ttl: 100&lt;br /&gt;
     loop_wait: 10&lt;br /&gt;
     maximum_lag_on_failover: 1048576&lt;br /&gt;
     master_start_timeout: 5&lt;br /&gt;
     postgresql:&lt;br /&gt;
       use_pg_rewind: true&lt;br /&gt;
       use_slots: true&lt;br /&gt;
       parameters:&lt;br /&gt;
         max_connections: '260'&lt;br /&gt;
         wal_level: 'replica'&lt;br /&gt;
         wal_keep_segments: 1000&lt;br /&gt;
         max_replication_slots: 5&lt;br /&gt;
         max_wal_senders: 10&lt;br /&gt;
         hot_standby: 'on'&lt;br /&gt;
         '''max_locks_per_transaction: 512'''&lt;br /&gt;
         checkpoint_timeout: 15&lt;br /&gt;
 ...&lt;br /&gt;
или секции:&lt;br /&gt;
 '''pg_hba''' - (доступы на Postgresql)&amp;lt;br&amp;gt;&lt;br /&gt;
* Пример такого параметра в файле: /etc/patroni/config.yaml&lt;br /&gt;
 '''pg_hba:'''&lt;br /&gt;
   #Patroni&lt;br /&gt;
   host all all 0.0.0.0/0 md5&lt;br /&gt;
   host postgres mylogin 0.0.0.0/24 md5&lt;br /&gt;
   host all postgres 0.0.0.0/24 md5&lt;br /&gt;
   '''host replication replicator 10.111.6.11/32 md5'''&lt;br /&gt;
   '''host replication replicator 10.111.6.12/32 md5'''&lt;br /&gt;
&lt;br /&gt;
- изменения для них вносятся сначала через:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml edit-config&lt;br /&gt;
После изменений, при выходе конфигуратор спросит: &lt;br /&gt;
 '''Принять изменения?''' Отвечаем '''Да'''.&lt;br /&gt;
- потом проверяем применение через: &lt;br /&gt;
 patronictl -c /etc/patroni/config.yml show-config&lt;br /&gt;
- если вы вносите изменения через: &lt;br /&gt;
 patronictl -c /etc/patroni/config.yml edit-config&lt;br /&gt;
то изменения применяются сразу всем участникам кластера!&amp;lt;br&amp;gt;&lt;br /&gt;
Так же нужно понимать, что при '''перезагрузке''' сервиса '''Patroni''' на ноде, изменения не примутся, загрузится предыдущий файл конфигурации.&amp;lt;br&amp;gt;&lt;br /&gt;
* Поэтому так же необходимо вносить изменения в '''/etc/patroni/config.yml'''&lt;br /&gt;
- если все прошло успешно, необходимо перезапустить обе ноды поочереди через:&lt;br /&gt;
 systemctl restart patroni&lt;br /&gt;
- только после этого параметры уже будут в работе в самом Postgresql.&lt;br /&gt;
&lt;br /&gt;
* '''Изменение конфигурации Postgresql в Patroni''':&amp;lt;br&amp;gt;&lt;br /&gt;
Если вы внесли изменения в ресурсы виртуального контейнера, то необходимо скорректировать настройки '''PostgresPro'''.&amp;lt;br&amp;gt;&lt;br /&gt;
Для этого достаточно внести корректировки в /etc/patroni/config.yml, секции:&lt;br /&gt;
 ...&lt;br /&gt;
 postgresql:&lt;br /&gt;
 ....&lt;br /&gt;
   parameters:&lt;br /&gt;
     unix_socket_directories: '.'&lt;br /&gt;
     dynamic_shared_memory_type: 'posix'&lt;br /&gt;
     seq_page_cost: '0.1'&lt;br /&gt;
     superuser_reserved_connections: '2'&lt;br /&gt;
     huge_pages: 'off'&lt;br /&gt;
     track_io_timing: 'off'&lt;br /&gt;
     synchronous_commit: 'off'&lt;br /&gt;
     fsync: 'on'&lt;br /&gt;
     wal_sync_method: 'fdatasync'&lt;br /&gt;
     checkpoint_timeout: '15 min'&lt;br /&gt;
     random_page_cost: '0.1'&lt;br /&gt;
     cpu_operator_cost: '0.0025'&lt;br /&gt;
     logging_collector: 'on'&lt;br /&gt;
     log_timezone: 'Europe/Moscow'&lt;br /&gt;
     datestyle: 'iso, dmy'&lt;br /&gt;
     timezone: 'Europe/Moscow'&lt;br /&gt;
     lc_messages: 'ru_RU.UTF-8'&lt;br /&gt;
     lc_monetary: 'ru_RU.UTF-8'&lt;br /&gt;
     lc_numeric: 'ru_RU.UTF-8'&lt;br /&gt;
     lc_time: 'ru_RU.UTF-8'&lt;br /&gt;
     default_text_search_config: 'pg_catalog.russian'&lt;br /&gt;
     temp_buffers: '256 MB'&lt;br /&gt;
     max_files_per_process: '10000'&lt;br /&gt;
     commit_delay: '1000'&lt;br /&gt;
     from_collapse_limit: '8'&lt;br /&gt;
     join_collapse_limit: '8'&lt;br /&gt;
     autovacuum_max_workers: '2'&lt;br /&gt;
     vacuum_cost_limit: '200'&lt;br /&gt;
     autovacuum_naptime: '10s'&lt;br /&gt;
     autovacuum_vacuum_scale_factor: '0.01'&lt;br /&gt;
     autovacuum_analyze_scale_factor: '0.005'&lt;br /&gt;
     escape_string_warning: 'off'&lt;br /&gt;
     standard_conforming_strings: 'off'&lt;br /&gt;
     shared_preload_libraries: 'online_analyze, plantuner'&lt;br /&gt;
     online_analyze.threshold: '50'&lt;br /&gt;
     online_analyze.scale_factor: '0.1'&lt;br /&gt;
     online_analyze.enable: 'on'&lt;br /&gt;
     online_analyze.verbose: 'off'&lt;br /&gt;
     online_analyze.min_interval: '10000'&lt;br /&gt;
     online_analyze.table_type: 'temporary'&lt;br /&gt;
     plantuner.fix_empty_table: 'on'&lt;br /&gt;
     shared_buffers: '8192 MB'&lt;br /&gt;
     effective_cache_size: '23 GB'&lt;br /&gt;
     maintenance_work_mem: '420 MB'&lt;br /&gt;
     checkpoint_completion_target: '0.9'&lt;br /&gt;
     default_statistics_target: '500'&lt;br /&gt;
     effective_io_concurrency: '200'&lt;br /&gt;
     work_mem: '64 MB'&lt;br /&gt;
     min_wal_size: '5120 MB'&lt;br /&gt;
     max_wal_size: '10240 MB'&lt;br /&gt;
     wal_compression: 'on'&lt;br /&gt;
     wal_buffers: '16'&lt;br /&gt;
     wal_writer_delay: '200ms'&lt;br /&gt;
     wal_writer_flush_after: '1 MB'&lt;br /&gt;
     wal_keep_size: '22080 MB'&lt;br /&gt;
     bgwriter_delay: '200ms'&lt;br /&gt;
     bgwriter_lru_maxpages: '100'&lt;br /&gt;
     bgwriter_lru_multiplier: '2.0'&lt;br /&gt;
     bgwriter_flush_after: '0'&lt;br /&gt;
     max_worker_processes: '6'&lt;br /&gt;
     max_parallel_workers_per_gather: '3'&lt;br /&gt;
     max_parallel_workers: '6'&lt;br /&gt;
     max_parallel_maintenance_workers: '3'&lt;br /&gt;
     parallel_leader_participation: 'on'&lt;br /&gt;
     jit: 'on'&lt;br /&gt;
     max_slot_wal_keep_size: '1000 MB'&lt;br /&gt;
     maintenance_io_concurrency: '200'&lt;br /&gt;
     wal_recycle: 'on'&lt;br /&gt;
 ...&lt;br /&gt;
и перезагрузить сервис '''Patroni'''.&lt;br /&gt;
 systemctl reload patroni&lt;br /&gt;
или перезапустить&lt;br /&gt;
 systemctl restart patroni&lt;br /&gt;
&lt;br /&gt;
=='''РЕШЕНИЕ ПРОБЛЕМ'''==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
* '''ВНИМАНИЕ!!! -  если идет реплика, ни в коем случае не трогать Leader!!'''&lt;br /&gt;
* Сначала смотрим состояние кластера '''Patroni''':&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml list&lt;br /&gt;
&lt;br /&gt;
* Если есть '''State: creating replica''' - ждем...&lt;br /&gt;
 + Cluster: cspg (7330684258159679984) --------------------------+----+-----------+&lt;br /&gt;
 | Member  | Host             | Role    | State                  | TL | Lag in MB |&lt;br /&gt;
 +---------+------------------+---------+------------------------+----+-----------+&lt;br /&gt;
 | pg1     | pg1.local.net    | Leader  | running                |  5 |           |&lt;br /&gt;
 | pg2     | pg2.local.net    | Replica | '''creating replica'''       |    |   unknown |&lt;br /&gt;
 +---------+------------------+---------+------------------------+----+-----------+&lt;br /&gt;
&lt;br /&gt;
* Если ответ такой:&lt;br /&gt;
 + Cluster: cs1pgpro (7330684258159679984) -------+----+-----------+&lt;br /&gt;
 | Member  | Host             | Role    | State   | TL | Lag in MB |&lt;br /&gt;
 +---------+------------------+---------+---------+----+-----------+&lt;br /&gt;
 | pg1 | pg1.local.net        | Leader  | running |  5 |           |&lt;br /&gt;
 | pg2 | pg2.local.net        | Replica | running |  5 |         0 |&lt;br /&gt;
 +---------+------------------+---------+---------+----+-----------+&lt;br /&gt;
- можно проводить операции по переключению или иное.&lt;br /&gt;
&lt;br /&gt;
* '''Шаги для восстановления синхронизации:'''&lt;br /&gt;
1. Определите сбойную ноду. Для этого на любой из работавших нод выполните команду patronictl list. Если наблюдается увеличивающийся лаг (задержка в репликации), это указывает на проблему с синхронизацией данных на конкретной ноде. &lt;br /&gt;
&lt;br /&gt;
2. Выполните команду reinit на сбойной ноде выполните команду:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml reinit &amp;lt;имя_кластера&amp;gt; &amp;lt;имя_ноды&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=='''ДОКУМЕНТАЦИЯ'''==&lt;br /&gt;
* [https://support.qbpro.ru/images/b/bb/Patroni-readthedocs-io-en-latest.pdf '''Patroni Documentation EN''']&lt;br /&gt;
* [https://docs.arenadata.io/ru/ADPG/current/how-to/configure-ha/switchover.html Переключение с лидера на реплику в ADPG]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=Patroni_-_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4672</id>
		<title>Patroni - управление</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=Patroni_-_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4672"/>
		<updated>2026-04-17T09:58:16Z</updated>

		<summary type="html">&lt;p&gt;Vix: /* РЕШЕНИЕ ПРОБЛЕМ */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=='''БАЗОВЫЕ ОПЕРАЦИИ'''==&lt;br /&gt;
* Перезапуск конфигурации на ноде: &lt;br /&gt;
 patronictl -c /etc/patroni/config.yml restart имя-кластера имя-хоста (на котором перезапускаем)&lt;br /&gt;
* Вывести конфиг patroni:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml show-config&lt;br /&gt;
* Редактировать конфиг patroni:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml edit-config&lt;br /&gt;
* Посмотреть состояние кластера patroni:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml list&lt;br /&gt;
=='''РЕГЛАМЕНТНЫЕ ОПЕРАЦИИ'''==&lt;br /&gt;
* '''Сменить Лидера для изменений настроек или иное:'''&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml failover&lt;br /&gt;
* -  будет предложен список кандидатов, кто будет лидером, нужно ввести полное имя как в списке.&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* '''Изменение конфигурации Patroni''':&amp;lt;br&amp;gt;&lt;br /&gt;
В '''Patroni''' есть 2 секции в конфигурации, первая отвечает за поведение самого '''patroni''',&amp;lt;br&amp;gt; &lt;br /&gt;
вторая это настройки '''Postgresql'''.&amp;lt;br&amp;gt;&lt;br /&gt;
Секции:&amp;lt;br&amp;gt;&lt;br /&gt;
 '''bootstrap''' - (параметры при запуске Postgresql)&lt;br /&gt;
* Пример такого параметра в файле: /etc/patroni/config.yaml&lt;br /&gt;
 ...&lt;br /&gt;
 '''bootstrap:'''&lt;br /&gt;
   dcs:&lt;br /&gt;
     ttl: 100&lt;br /&gt;
     loop_wait: 10&lt;br /&gt;
     maximum_lag_on_failover: 1048576&lt;br /&gt;
     master_start_timeout: 5&lt;br /&gt;
     postgresql:&lt;br /&gt;
       use_pg_rewind: true&lt;br /&gt;
       use_slots: true&lt;br /&gt;
       parameters:&lt;br /&gt;
         max_connections: '260'&lt;br /&gt;
         wal_level: 'replica'&lt;br /&gt;
         wal_keep_segments: 1000&lt;br /&gt;
         max_replication_slots: 5&lt;br /&gt;
         max_wal_senders: 10&lt;br /&gt;
         hot_standby: 'on'&lt;br /&gt;
         '''max_locks_per_transaction: 512'''&lt;br /&gt;
         checkpoint_timeout: 15&lt;br /&gt;
 ...&lt;br /&gt;
или секции:&lt;br /&gt;
 '''pg_hba''' - (доступы на Postgresql)&amp;lt;br&amp;gt;&lt;br /&gt;
* Пример такого параметра в файле: /etc/patroni/config.yaml&lt;br /&gt;
 '''pg_hba:'''&lt;br /&gt;
   #Patroni&lt;br /&gt;
   host all all 0.0.0.0/0 md5&lt;br /&gt;
   host postgres mylogin 0.0.0.0/24 md5&lt;br /&gt;
   host all postgres 0.0.0.0/24 md5&lt;br /&gt;
   '''host replication replicator 10.111.6.11/32 md5'''&lt;br /&gt;
   '''host replication replicator 10.111.6.12/32 md5'''&lt;br /&gt;
&lt;br /&gt;
- изменения для них вносятся сначала через:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml edit-config&lt;br /&gt;
После изменений, при выходе конфигуратор спросит: &lt;br /&gt;
 '''Принять изменения?''' Отвечаем '''Да'''.&lt;br /&gt;
- потом проверяем применение через: &lt;br /&gt;
 patronictl -c /etc/patroni/config.yml show-config&lt;br /&gt;
- если вы вносите изменения через: &lt;br /&gt;
 patronictl -c /etc/patroni/config.yml edit-config&lt;br /&gt;
то изменения применяются сразу всем участникам кластера!&amp;lt;br&amp;gt;&lt;br /&gt;
Так же нужно понимать, что при '''перезагрузке''' сервиса '''Patroni''' на ноде, изменения не примутся, загрузится предыдущий файл конфигурации.&amp;lt;br&amp;gt;&lt;br /&gt;
* Поэтому так же необходимо вносить изменения в '''/etc/patroni/config.yml'''&lt;br /&gt;
- если все прошло успешно, необходимо перезапустить обе ноды поочереди через:&lt;br /&gt;
 systemctl restart patroni&lt;br /&gt;
- только после этого параметры уже будут в работе в самом Postgresql.&lt;br /&gt;
&lt;br /&gt;
* '''Изменение конфигурации Postgresql в Patroni''':&amp;lt;br&amp;gt;&lt;br /&gt;
Если вы внесли изменения в ресурсы виртуального контейнера, то необходимо скорректировать настройки '''PostgresPro'''.&amp;lt;br&amp;gt;&lt;br /&gt;
Для этого достаточно внести корректировки в /etc/patroni/config.yml, секции:&lt;br /&gt;
 ...&lt;br /&gt;
 postgresql:&lt;br /&gt;
 ....&lt;br /&gt;
   parameters:&lt;br /&gt;
     unix_socket_directories: '.'&lt;br /&gt;
     dynamic_shared_memory_type: 'posix'&lt;br /&gt;
     seq_page_cost: '0.1'&lt;br /&gt;
     superuser_reserved_connections: '2'&lt;br /&gt;
     huge_pages: 'off'&lt;br /&gt;
     track_io_timing: 'off'&lt;br /&gt;
     synchronous_commit: 'off'&lt;br /&gt;
     fsync: 'on'&lt;br /&gt;
     wal_sync_method: 'fdatasync'&lt;br /&gt;
     checkpoint_timeout: '15 min'&lt;br /&gt;
     random_page_cost: '0.1'&lt;br /&gt;
     cpu_operator_cost: '0.0025'&lt;br /&gt;
     logging_collector: 'on'&lt;br /&gt;
     log_timezone: 'Europe/Moscow'&lt;br /&gt;
     datestyle: 'iso, dmy'&lt;br /&gt;
     timezone: 'Europe/Moscow'&lt;br /&gt;
     lc_messages: 'ru_RU.UTF-8'&lt;br /&gt;
     lc_monetary: 'ru_RU.UTF-8'&lt;br /&gt;
     lc_numeric: 'ru_RU.UTF-8'&lt;br /&gt;
     lc_time: 'ru_RU.UTF-8'&lt;br /&gt;
     default_text_search_config: 'pg_catalog.russian'&lt;br /&gt;
     temp_buffers: '256 MB'&lt;br /&gt;
     max_files_per_process: '10000'&lt;br /&gt;
     commit_delay: '1000'&lt;br /&gt;
     from_collapse_limit: '8'&lt;br /&gt;
     join_collapse_limit: '8'&lt;br /&gt;
     autovacuum_max_workers: '2'&lt;br /&gt;
     vacuum_cost_limit: '200'&lt;br /&gt;
     autovacuum_naptime: '10s'&lt;br /&gt;
     autovacuum_vacuum_scale_factor: '0.01'&lt;br /&gt;
     autovacuum_analyze_scale_factor: '0.005'&lt;br /&gt;
     escape_string_warning: 'off'&lt;br /&gt;
     standard_conforming_strings: 'off'&lt;br /&gt;
     shared_preload_libraries: 'online_analyze, plantuner'&lt;br /&gt;
     online_analyze.threshold: '50'&lt;br /&gt;
     online_analyze.scale_factor: '0.1'&lt;br /&gt;
     online_analyze.enable: 'on'&lt;br /&gt;
     online_analyze.verbose: 'off'&lt;br /&gt;
     online_analyze.min_interval: '10000'&lt;br /&gt;
     online_analyze.table_type: 'temporary'&lt;br /&gt;
     plantuner.fix_empty_table: 'on'&lt;br /&gt;
     shared_buffers: '8192 MB'&lt;br /&gt;
     effective_cache_size: '23 GB'&lt;br /&gt;
     maintenance_work_mem: '420 MB'&lt;br /&gt;
     checkpoint_completion_target: '0.9'&lt;br /&gt;
     default_statistics_target: '500'&lt;br /&gt;
     effective_io_concurrency: '200'&lt;br /&gt;
     work_mem: '64 MB'&lt;br /&gt;
     min_wal_size: '5120 MB'&lt;br /&gt;
     max_wal_size: '10240 MB'&lt;br /&gt;
     wal_compression: 'on'&lt;br /&gt;
     wal_buffers: '16'&lt;br /&gt;
     wal_writer_delay: '200ms'&lt;br /&gt;
     wal_writer_flush_after: '1 MB'&lt;br /&gt;
     wal_keep_size: '22080 MB'&lt;br /&gt;
     bgwriter_delay: '200ms'&lt;br /&gt;
     bgwriter_lru_maxpages: '100'&lt;br /&gt;
     bgwriter_lru_multiplier: '2.0'&lt;br /&gt;
     bgwriter_flush_after: '0'&lt;br /&gt;
     max_worker_processes: '6'&lt;br /&gt;
     max_parallel_workers_per_gather: '3'&lt;br /&gt;
     max_parallel_workers: '6'&lt;br /&gt;
     max_parallel_maintenance_workers: '3'&lt;br /&gt;
     parallel_leader_participation: 'on'&lt;br /&gt;
     jit: 'on'&lt;br /&gt;
     max_slot_wal_keep_size: '1000 MB'&lt;br /&gt;
     maintenance_io_concurrency: '200'&lt;br /&gt;
     wal_recycle: 'on'&lt;br /&gt;
 ...&lt;br /&gt;
и перезагрузить сервис '''Patroni'''.&lt;br /&gt;
 systemctl reload patroni&lt;br /&gt;
или перезапустить&lt;br /&gt;
 systemctl restart patroni&lt;br /&gt;
&lt;br /&gt;
=='''РЕШЕНИЕ ПРОБЛЕМ'''==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
* '''ВНИМАНИЕ!!! -  если идет реплика, ни в коем случае не трогать Leader!!'''&lt;br /&gt;
* Сначала смотрим состояние кластера '''Patroni''':&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml list&lt;br /&gt;
&lt;br /&gt;
* Если есть '''State: creating replica''' - ждем...&lt;br /&gt;
 + Cluster: cspg (7330684258159679984) --------------------------+----+-----------+&lt;br /&gt;
 | Member  | Host             | Role    | State                  | TL | Lag in MB |&lt;br /&gt;
 +---------+------------------+---------+------------------------+----+-----------+&lt;br /&gt;
 | pg1     | pg1.local.net    | Leader  | running                |  5 |           |&lt;br /&gt;
 | pg2     | pg2.local.net    | Replica | '''creating replica'''       |    |   unknown |&lt;br /&gt;
 +---------+------------------+---------+------------------------+----+-----------+&lt;br /&gt;
&lt;br /&gt;
* Если ответ такой:&lt;br /&gt;
 + Cluster: cs1pgpro (7330684258159679984) -------+----+-----------+&lt;br /&gt;
 | Member  | Host             | Role    | State   | TL | Lag in MB |&lt;br /&gt;
 +---------+------------------+---------+---------+----+-----------+&lt;br /&gt;
 | pg1 | pg1.local.net        | Leader  | running |  5 |           |&lt;br /&gt;
 | pg2 | pg2.local.net        | Replica | running |  5 |         0 |&lt;br /&gt;
 +---------+------------------+---------+---------+----+-----------+&lt;br /&gt;
- можно проводить операции по переключению или иное.&lt;br /&gt;
&lt;br /&gt;
* Шаги для восстановления синхронизации:&lt;br /&gt;
1. Определите сбойную ноду. Для этого на любой из работавших нод выполните команду patronictl list. Если наблюдается увеличивающийся лаг (задержка в репликации), это указывает на проблему с синхронизацией данных на конкретной ноде. &lt;br /&gt;
&lt;br /&gt;
2. Выполните команду reinit на сбойной ноде выполните команду:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml reinit &amp;lt;имя_кластера&amp;gt; &amp;lt;имя_ноды&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=='''ДОКУМЕНТАЦИЯ'''==&lt;br /&gt;
* [https://support.qbpro.ru/images/b/bb/Patroni-readthedocs-io-en-latest.pdf '''Patroni Documentation EN''']&lt;br /&gt;
* [https://docs.arenadata.io/ru/ADPG/current/how-to/configure-ha/switchover.html Переключение с лидера на реплику в ADPG]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=Patroni_-_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4671</id>
		<title>Patroni - управление</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=Patroni_-_%D1%83%D0%BF%D1%80%D0%B0%D0%B2%D0%BB%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4671"/>
		<updated>2026-04-17T09:57:27Z</updated>

		<summary type="html">&lt;p&gt;Vix: /* РЕШЕНИЕ ПРОБЛЕМ */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;=='''БАЗОВЫЕ ОПЕРАЦИИ'''==&lt;br /&gt;
* Перезапуск конфигурации на ноде: &lt;br /&gt;
 patronictl -c /etc/patroni/config.yml restart имя-кластера имя-хоста (на котором перезапускаем)&lt;br /&gt;
* Вывести конфиг patroni:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml show-config&lt;br /&gt;
* Редактировать конфиг patroni:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml edit-config&lt;br /&gt;
* Посмотреть состояние кластера patroni:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml list&lt;br /&gt;
=='''РЕГЛАМЕНТНЫЕ ОПЕРАЦИИ'''==&lt;br /&gt;
* '''Сменить Лидера для изменений настроек или иное:'''&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml failover&lt;br /&gt;
* -  будет предложен список кандидатов, кто будет лидером, нужно ввести полное имя как в списке.&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* '''Изменение конфигурации Patroni''':&amp;lt;br&amp;gt;&lt;br /&gt;
В '''Patroni''' есть 2 секции в конфигурации, первая отвечает за поведение самого '''patroni''',&amp;lt;br&amp;gt; &lt;br /&gt;
вторая это настройки '''Postgresql'''.&amp;lt;br&amp;gt;&lt;br /&gt;
Секции:&amp;lt;br&amp;gt;&lt;br /&gt;
 '''bootstrap''' - (параметры при запуске Postgresql)&lt;br /&gt;
* Пример такого параметра в файле: /etc/patroni/config.yaml&lt;br /&gt;
 ...&lt;br /&gt;
 '''bootstrap:'''&lt;br /&gt;
   dcs:&lt;br /&gt;
     ttl: 100&lt;br /&gt;
     loop_wait: 10&lt;br /&gt;
     maximum_lag_on_failover: 1048576&lt;br /&gt;
     master_start_timeout: 5&lt;br /&gt;
     postgresql:&lt;br /&gt;
       use_pg_rewind: true&lt;br /&gt;
       use_slots: true&lt;br /&gt;
       parameters:&lt;br /&gt;
         max_connections: '260'&lt;br /&gt;
         wal_level: 'replica'&lt;br /&gt;
         wal_keep_segments: 1000&lt;br /&gt;
         max_replication_slots: 5&lt;br /&gt;
         max_wal_senders: 10&lt;br /&gt;
         hot_standby: 'on'&lt;br /&gt;
         '''max_locks_per_transaction: 512'''&lt;br /&gt;
         checkpoint_timeout: 15&lt;br /&gt;
 ...&lt;br /&gt;
или секции:&lt;br /&gt;
 '''pg_hba''' - (доступы на Postgresql)&amp;lt;br&amp;gt;&lt;br /&gt;
* Пример такого параметра в файле: /etc/patroni/config.yaml&lt;br /&gt;
 '''pg_hba:'''&lt;br /&gt;
   #Patroni&lt;br /&gt;
   host all all 0.0.0.0/0 md5&lt;br /&gt;
   host postgres mylogin 0.0.0.0/24 md5&lt;br /&gt;
   host all postgres 0.0.0.0/24 md5&lt;br /&gt;
   '''host replication replicator 10.111.6.11/32 md5'''&lt;br /&gt;
   '''host replication replicator 10.111.6.12/32 md5'''&lt;br /&gt;
&lt;br /&gt;
- изменения для них вносятся сначала через:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml edit-config&lt;br /&gt;
После изменений, при выходе конфигуратор спросит: &lt;br /&gt;
 '''Принять изменения?''' Отвечаем '''Да'''.&lt;br /&gt;
- потом проверяем применение через: &lt;br /&gt;
 patronictl -c /etc/patroni/config.yml show-config&lt;br /&gt;
- если вы вносите изменения через: &lt;br /&gt;
 patronictl -c /etc/patroni/config.yml edit-config&lt;br /&gt;
то изменения применяются сразу всем участникам кластера!&amp;lt;br&amp;gt;&lt;br /&gt;
Так же нужно понимать, что при '''перезагрузке''' сервиса '''Patroni''' на ноде, изменения не примутся, загрузится предыдущий файл конфигурации.&amp;lt;br&amp;gt;&lt;br /&gt;
* Поэтому так же необходимо вносить изменения в '''/etc/patroni/config.yml'''&lt;br /&gt;
- если все прошло успешно, необходимо перезапустить обе ноды поочереди через:&lt;br /&gt;
 systemctl restart patroni&lt;br /&gt;
- только после этого параметры уже будут в работе в самом Postgresql.&lt;br /&gt;
&lt;br /&gt;
* '''Изменение конфигурации Postgresql в Patroni''':&amp;lt;br&amp;gt;&lt;br /&gt;
Если вы внесли изменения в ресурсы виртуального контейнера, то необходимо скорректировать настройки '''PostgresPro'''.&amp;lt;br&amp;gt;&lt;br /&gt;
Для этого достаточно внести корректировки в /etc/patroni/config.yml, секции:&lt;br /&gt;
 ...&lt;br /&gt;
 postgresql:&lt;br /&gt;
 ....&lt;br /&gt;
   parameters:&lt;br /&gt;
     unix_socket_directories: '.'&lt;br /&gt;
     dynamic_shared_memory_type: 'posix'&lt;br /&gt;
     seq_page_cost: '0.1'&lt;br /&gt;
     superuser_reserved_connections: '2'&lt;br /&gt;
     huge_pages: 'off'&lt;br /&gt;
     track_io_timing: 'off'&lt;br /&gt;
     synchronous_commit: 'off'&lt;br /&gt;
     fsync: 'on'&lt;br /&gt;
     wal_sync_method: 'fdatasync'&lt;br /&gt;
     checkpoint_timeout: '15 min'&lt;br /&gt;
     random_page_cost: '0.1'&lt;br /&gt;
     cpu_operator_cost: '0.0025'&lt;br /&gt;
     logging_collector: 'on'&lt;br /&gt;
     log_timezone: 'Europe/Moscow'&lt;br /&gt;
     datestyle: 'iso, dmy'&lt;br /&gt;
     timezone: 'Europe/Moscow'&lt;br /&gt;
     lc_messages: 'ru_RU.UTF-8'&lt;br /&gt;
     lc_monetary: 'ru_RU.UTF-8'&lt;br /&gt;
     lc_numeric: 'ru_RU.UTF-8'&lt;br /&gt;
     lc_time: 'ru_RU.UTF-8'&lt;br /&gt;
     default_text_search_config: 'pg_catalog.russian'&lt;br /&gt;
     temp_buffers: '256 MB'&lt;br /&gt;
     max_files_per_process: '10000'&lt;br /&gt;
     commit_delay: '1000'&lt;br /&gt;
     from_collapse_limit: '8'&lt;br /&gt;
     join_collapse_limit: '8'&lt;br /&gt;
     autovacuum_max_workers: '2'&lt;br /&gt;
     vacuum_cost_limit: '200'&lt;br /&gt;
     autovacuum_naptime: '10s'&lt;br /&gt;
     autovacuum_vacuum_scale_factor: '0.01'&lt;br /&gt;
     autovacuum_analyze_scale_factor: '0.005'&lt;br /&gt;
     escape_string_warning: 'off'&lt;br /&gt;
     standard_conforming_strings: 'off'&lt;br /&gt;
     shared_preload_libraries: 'online_analyze, plantuner'&lt;br /&gt;
     online_analyze.threshold: '50'&lt;br /&gt;
     online_analyze.scale_factor: '0.1'&lt;br /&gt;
     online_analyze.enable: 'on'&lt;br /&gt;
     online_analyze.verbose: 'off'&lt;br /&gt;
     online_analyze.min_interval: '10000'&lt;br /&gt;
     online_analyze.table_type: 'temporary'&lt;br /&gt;
     plantuner.fix_empty_table: 'on'&lt;br /&gt;
     shared_buffers: '8192 MB'&lt;br /&gt;
     effective_cache_size: '23 GB'&lt;br /&gt;
     maintenance_work_mem: '420 MB'&lt;br /&gt;
     checkpoint_completion_target: '0.9'&lt;br /&gt;
     default_statistics_target: '500'&lt;br /&gt;
     effective_io_concurrency: '200'&lt;br /&gt;
     work_mem: '64 MB'&lt;br /&gt;
     min_wal_size: '5120 MB'&lt;br /&gt;
     max_wal_size: '10240 MB'&lt;br /&gt;
     wal_compression: 'on'&lt;br /&gt;
     wal_buffers: '16'&lt;br /&gt;
     wal_writer_delay: '200ms'&lt;br /&gt;
     wal_writer_flush_after: '1 MB'&lt;br /&gt;
     wal_keep_size: '22080 MB'&lt;br /&gt;
     bgwriter_delay: '200ms'&lt;br /&gt;
     bgwriter_lru_maxpages: '100'&lt;br /&gt;
     bgwriter_lru_multiplier: '2.0'&lt;br /&gt;
     bgwriter_flush_after: '0'&lt;br /&gt;
     max_worker_processes: '6'&lt;br /&gt;
     max_parallel_workers_per_gather: '3'&lt;br /&gt;
     max_parallel_workers: '6'&lt;br /&gt;
     max_parallel_maintenance_workers: '3'&lt;br /&gt;
     parallel_leader_participation: 'on'&lt;br /&gt;
     jit: 'on'&lt;br /&gt;
     max_slot_wal_keep_size: '1000 MB'&lt;br /&gt;
     maintenance_io_concurrency: '200'&lt;br /&gt;
     wal_recycle: 'on'&lt;br /&gt;
 ...&lt;br /&gt;
и перезагрузить сервис '''Patroni'''.&lt;br /&gt;
 systemctl reload patroni&lt;br /&gt;
или перезапустить&lt;br /&gt;
 systemctl restart patroni&lt;br /&gt;
&lt;br /&gt;
=='''РЕШЕНИЕ ПРОБЛЕМ'''==&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
* '''ВНИМАНИЕ!!! -  если идет реплика, ни в коем случае не трогать Leader!!'''&lt;br /&gt;
* Сначала смотрим состояние кластера '''Patroni''':&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml list&lt;br /&gt;
&lt;br /&gt;
* Если есть '''State: creating replica''' - ждем...&lt;br /&gt;
 + Cluster: cspg (7330684258159679984) --------------------------+----+-----------+&lt;br /&gt;
 | Member  | Host             | Role    | State                  | TL | Lag in MB |&lt;br /&gt;
 +---------+------------------+---------+------------------------+----+-----------+&lt;br /&gt;
 | pg1     | pg1.local.net    | Leader  | running                |  5 |           |&lt;br /&gt;
 | pg2     | pg2.local.net    | Replica | '''creating replica'''       |    |   unknown |&lt;br /&gt;
 +---------+------------------+---------+------------------------+----+-----------+&lt;br /&gt;
&lt;br /&gt;
* Если ответ такой:&lt;br /&gt;
 + Cluster: cs1pgpro (7330684258159679984) -------+----+-----------+&lt;br /&gt;
 | Member  | Host             | Role    | State   | TL | Lag in MB |&lt;br /&gt;
 +---------+------------------+---------+---------+----+-----------+&lt;br /&gt;
 | pg1 | pg1.local.net        | Leader  | running |  5 |           |&lt;br /&gt;
 | pg2 | pg2.local.net        | Replica | running |  5 |         0 |&lt;br /&gt;
 +---------+------------------+---------+---------+----+-----------+&lt;br /&gt;
- можно проводить операции по переключению или иное.&lt;br /&gt;
&lt;br /&gt;
* Шаги для восстановления синхронизации:&lt;br /&gt;
1. Определите сбойную ноду. Для этого на любой из работавших нод выполните команду patronictl list. Если наблюдается увеличивающийся лаг (задержка в репликации), это указывает на проблему с синхронизацией данных на конкретной ноде. &lt;br /&gt;
&lt;br /&gt;
2. Выполните команду reinit на сбойной ноде. Внутри контейнера с БД любой из нод выполните команду:&lt;br /&gt;
 patronictl -c /etc/patroni/config.yml reinit &amp;lt;имя_кластера&amp;gt; &amp;lt;имя_ноды&amp;gt;&lt;br /&gt;
&lt;br /&gt;
=='''ДОКУМЕНТАЦИЯ'''==&lt;br /&gt;
* [https://support.qbpro.ru/images/b/bb/Patroni-readthedocs-io-en-latest.pdf '''Patroni Documentation EN''']&lt;br /&gt;
* [https://docs.arenadata.io/ru/ADPG/current/how-to/configure-ha/switchover.html Переключение с лидера на реплику в ADPG]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=AI_%D0%B8%D0%BB%D0%B8_%D0%98%D1%81%D0%BA%D1%83%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82_-_%D1%80%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%BA%D0%B0_%D0%B8_%D0%B8%D0%B7%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4670</id>
		<title>AI или Искуственный Интеллект - разработка и изучение</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=AI_%D0%B8%D0%BB%D0%B8_%D0%98%D1%81%D0%BA%D1%83%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82_-_%D1%80%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%BA%D0%B0_%D0%B8_%D0%B8%D0%B7%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4670"/>
		<updated>2026-04-16T20:14:19Z</updated>

		<summary type="html">&lt;p&gt;Vix: /* ПОЛЕЗНОЕ */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==ВВЕДЕНИЕ==&lt;br /&gt;
LLM расшифровывается как «Модель большого языка». Это передовые системы искусственного интеллекта, предназначенные для понимания и создания текста, похожего на человеческий, на основе вводимых данных.&amp;lt;br&amp;gt;&lt;br /&gt;
Эти модели были обучены на огромных объемах текстовых данных и могут выполнять широкий спектр задач, связанных с языком, таких как ответы на вопросы, проведение бесед, обобщение текста, перевод языков и многое другое.&amp;lt;br&amp;gt;&lt;br /&gt;
* '''Обучение модели LLM'''&lt;br /&gt;
На высоком уровне обучение модели LLM включает в себя три этапа, т. е. сбор данных, обучение и оценку.&lt;br /&gt;
* Сбор данных (Data Collection) Первым шагом является сбор данных, которые будут использоваться для обучения модели. Данные могут быть собраны из различных источников, таких как Википедия, новостные статьи, книги, веб-сайты и т. д.&lt;br /&gt;
* Обучение (Training): Затем данные проходят через обучающий конвейер, где они очищаются и предварительно обрабатываются перед тем, как поступить в модель для обучения. Процесс обучения обычно занимает много времени и требует больших вычислительных мощностей.&lt;br /&gt;
* Оценка (Evaluation): Последний шаг — оценить производительность модели, чтобы увидеть, насколько хорошо она справляется с различными задачами, такими как ответы на вопросы, обобщение, перевод и т. д.&lt;br /&gt;
* Результатом конвейера обучения является модель LLM, которая представляет собой просто параметры или веса, отражающие знания, полученные в процессе обучения. Эти параметры или веса обычно сериализуются и хранятся в файле, который затем может быть загружен в любое приложение, требующее возможностей языковой обработки, например, генерация текста, ответы на вопросы, языковая обработка и т. д.&lt;br /&gt;
* '''Типы LLM'''&lt;br /&gt;
На высоком уровне LLM можно разделить на два типа: - базовые LLM - LLM, настроенные под инструкции.&lt;br /&gt;
&lt;br /&gt;
* '''Базовые LLM'''&lt;br /&gt;
Базовые LLM — это LLM, предназначенные для предсказания следующего слова на основе обучающих данных. Они не предназначены для ответов на вопросы, проведения бесед или помощи в решении проблем. Например, если вы дадите базовому LLM предложение «В этой книге мы обсудим LLM», оно может завершить это предложение и дать вам «В этой книге о LLM мы обсудим, что такое LLM, как они работают и как вы можете использовать их в своих приложениях. ». Или, если вы дадите ему «Какие известные социальные сети?», вместо ответа он может ответить «Почему люди используют социальные сети?» или «Каковы преимущества социальных сетей?». Как видите, он дает нам соответствующий текст, но не отвечает на вопрос. Именно здесь в игру вступают LLM, настроенные под инструкции.&lt;br /&gt;
&lt;br /&gt;
* '''LLM, настроенные по инструкции'''&lt;br /&gt;
Instruction Tuned LLM вместо того, чтобы пытаться автозаполнять ваш текст, попробуйте следовать данным инструкциям, используя данные, на которых они были обучены. Например, если вы введете предложение «Что такое LLM?» он будет использовать данные, на которых он обучен, и попытается ответить на вопрос. Точно так же, если вы введете «Какие известные социальные сети?» он попытается ответить на вопрос вместо того, чтобы дать вам случайный ответ.&lt;br /&gt;
&lt;br /&gt;
* Instruction Tuned LLM построены поверх базовых LLM:&lt;br /&gt;
Instruction Tuned LLMs = Base LLMs + Further Tuning + RLHF&lt;br /&gt;
Для создания LLM с настройкой инструкций берется базовый LLM, который дополнительно обучается с использованием большого набора данных, охватывающего пример «Инструкций» и того, как модель должна работать в результате этих инструкций. Затем модель настраивается с помощью метода под названием «обучение с подкреплением с обратной связью человека» (RLHF), который позволяет модели учиться на обратной связи человека и со временем улучшать свою производительность.&lt;br /&gt;
&lt;br /&gt;
* '''В итоге'''&lt;br /&gt;
Языковые модели (LLM) произвели революцию в области обработки естественного языка (NLP), позволив машинам понимать и генерировать человекоподобный текст. LLM — это мощный инструмент, который можно использовать для решения широкого круга языковых задач. Они используются в различных отраслях, таких как здравоохранение, финансы, образование и т. д., для автоматизации процессов и повышения эффективности. У LLM есть потенциал революционизировать то, как мы взаимодействуем с компьютерами, и сделать нашу жизнь проще.&amp;lt;br&amp;gt;&lt;br /&gt;
[https://devopsgu.ru/blog/posts/chto-takoe-llm/#llm_4 Источник]&lt;br /&gt;
&lt;br /&gt;
==РАЗРАБОТКА==&lt;br /&gt;
* [https://nuancesprog.ru/p/18464/ Рост производительности машинного обучения с Rust]&lt;br /&gt;
* [https://uproger.com/biblioteka-rust-burn-dlya-glubokogo-obucheniya/ Библиотека Rust Burn для глубокого обучения]&lt;br /&gt;
* [https://dzen.ru/a/ZzOHE-7MEj_PiZZb Эмбединги с помощью Rust]&lt;br /&gt;
* [https://codezup.com/deploying-machine-learning-models-in-rust-with-rustml/ Развертывание моделей машинного обучения в Rust с помощью RUSTML]&lt;br /&gt;
---&lt;br /&gt;
* [https://github.com/coqui-ai/TTS Coqui TTS (модель XTTS-v2) голос]&lt;br /&gt;
* [https://digest.allm.link/ru/blogs/pixtral-12b-vision-model-now-on-amazon-bedrock/ Pixtral-12B теперь на Amazon Bedrock]&lt;br /&gt;
* [https://github.com/tomstaan/Clarivex-Pixtral-12B Clarivex-Pixtral-12B]&lt;br /&gt;
* [https://habr.com/ru/companies/serverflow/articles/851712/ Тестируем Pixtral12B и LLaMA 3.2 11B на народных Tesla P100 и P40]&lt;br /&gt;
==ИСТОЧНИКИ==&lt;br /&gt;
* [https://vc.ru/ai/881777-spravochnik-po-vyboru-gpu-dlya-raboty-s-bolshimi-yazykovymi-modelyami-llama Справочник по выбору GPU для работы с большими языковыми моделями Llama]&lt;br /&gt;
* [https://habr.com/ru/articles/768844/ Раскрывая секреты LLM: руководство по основным понятиям больших языковых моделей без хайпа]&lt;br /&gt;
&lt;br /&gt;
==ПОЛЕЗНОЕ==&lt;br /&gt;
* [https://huyenchip.com/llama-police Большой список open-source AI-моделей и не только]&lt;br /&gt;
* [https://github.com/stars/chiphuyen/lists/cool-llm-repos GitHub open-source AI List]&lt;br /&gt;
* [https://habr.com/ru/companies/first/articles/699380/ Опенсорс учёный: 15 полезных инструментов с искусственным интеллектом и машинным обучением]&lt;br /&gt;
* [https://sysadmin78.ru/doku.php/open_source:open_source_ai_machine_learning 7 лучших ИИ и систем машинного обучения с открытым исходным кодом]&lt;br /&gt;
* [https://hubai.ru/ HuB AI - Рабочие модели]&lt;br /&gt;
* [https://huggingface.co/spaces/Vokturz/can-it-run-llm Требования по ресурсам модель LLM]&lt;br /&gt;
* [https://www.ixbt.com/live/sw/ustanavlivaem-deepseek-na-domashniy-pk.html Как установить нейронную сеть DeepSeek на ПК]&lt;br /&gt;
* [https://dzen.ru/a/Z5zNHtZRjhRfVDkw Устанавливаем нейросеть DeepSeek локально на компьютер.]&lt;br /&gt;
* [https://rozetked.me/articles/37509-kak-zapustit-neyroset-deepseek-r1-lokal-no-na-svoem-komp-yutere Как запустить нейросеть DeepSeek-R1 локально на своём компьютере]&lt;br /&gt;
* [https://baskovsky.ru/2023/11/saiga/ Используем русский LLM — saiga]&lt;br /&gt;
* [https://vk.com/wall-208569258_115 ProgressNeuro: ChatGPT, Midjourney &amp;amp; Нейросети]&lt;br /&gt;
* [https://habr.com/ru/articles/767588/ Сайга-Мистраль — третья русская нейросеть после YaGPT и GigaChat, публично доступная по API]&lt;br /&gt;
* [https://timeweb.com/ru/community/articles/neyroseti-dlya-transkribacii-audio-i-video-v-tekst-10-luchshih-servisov-podborka Нейросети для транскрибации аудио и видео в текст: 10 лучших сервисов]&lt;br /&gt;
* [https://serverflow.ru/blog/stati/luchshie-modeli-ii-dlya-razvertyvaniya-na-svoem-pk-ili-servere-podrobno-o-trebovaniyakh-dlya-razvert/ Лучшие модели ИИ для развертывания на своем ПК или сервере]&lt;br /&gt;
* [https://pikabu.ru/story/luchshie_otkryityie_modeli_ii_dlya_sinteza_russkoy_rechi_na_domashnem_pk_12859001 Лучшие открытые модели ИИ для синтеза русской речи на домашнем ПК]&lt;br /&gt;
* [https://translated.turbopages.org/proxy_u/en-ru.ru.e01f73f9-69038089-64503cc9-74722d776562/https/www.freecodecamp.org/news/machine-learning-using-julia/ Машинное обучение с помощью Julia — как создать и развернуть обученную модель ИИ в виде веб-сервиса]&lt;br /&gt;
* [https://devtrends.ru/python/janvarev-irene-voice-assistant Ирина - ваш личный русскоязычный ассистент без зависимости от интернета]&lt;br /&gt;
* [https://devtrends.ru/typescript/janhq-jan Ваш персональный AI-ассистент, который не требует интернета]&lt;br /&gt;
* [https://habr.com/ru/companies/minerva_media/articles/909130/ За полчаса установил DeepSeek 1.5B, пока вы искали GPT подешевле]&lt;br /&gt;
* [https://1dedic.ru/blog/articles/lokalnoe-ispolzovanie-yazykovoy-modeli-na-vydelennom-servere-chast-pervaya-deepseek-i-eyo Локальное использование языковой модели на выделенном сервере. Часть первая: DeepSeek и её дистилляты на сервере без GPU]&lt;br /&gt;
* [https://mclouds.ru/2025/04/deploying-deepseek/ Как развернуть DeepSeek на своем сервере]&lt;br /&gt;
* [https://help.apiyi.com/ru/kimi-k2-5-paper-parameters-requirements-guide-ru.html Обзор технической статьи Kimi K2.5 ...]&lt;br /&gt;
* [https://habr.com/ru/articles/969748/ Kimi K2: новая китайская LLM ...]&lt;br /&gt;
* [https://www.ai-stat.ru/news/2026-01-30-kimi-k25-local-guide Как запустить Kimi K2.5 локально: полный гайд]&lt;br /&gt;
---&lt;br /&gt;
* [https://habr.com/ru/articles/896204/ Сравниваем скорость генерации LLM локально и по API]&lt;br /&gt;
* [https://habr.com/ru/companies/minerva_media/articles/920946/ 15 минут — и у тебя бесплатная ИИ-модель для генерации кода, текста, чтения иллюстраций]&lt;br /&gt;
* [[Лучшая сборка для локального ИИ на слабом железе: OmniCoder-9B, llama.cpp и 32 ГБ ОЗУ]]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=AI_%D0%B8%D0%BB%D0%B8_%D0%98%D1%81%D0%BA%D1%83%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82_-_%D1%80%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%BA%D0%B0_%D0%B8_%D0%B8%D0%B7%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4669</id>
		<title>AI или Искуственный Интеллект - разработка и изучение</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=AI_%D0%B8%D0%BB%D0%B8_%D0%98%D1%81%D0%BA%D1%83%D1%81%D1%82%D0%B2%D0%B5%D0%BD%D0%BD%D1%8B%D0%B9_%D0%98%D0%BD%D1%82%D0%B5%D0%BB%D0%BB%D0%B5%D0%BA%D1%82_-_%D1%80%D0%B0%D0%B7%D1%80%D0%B0%D0%B1%D0%BE%D1%82%D0%BA%D0%B0_%D0%B8_%D0%B8%D0%B7%D1%83%D1%87%D0%B5%D0%BD%D0%B8%D0%B5&amp;diff=4669"/>
		<updated>2026-04-16T20:12:01Z</updated>

		<summary type="html">&lt;p&gt;Vix: /* ПОЛЕЗНОЕ */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==ВВЕДЕНИЕ==&lt;br /&gt;
LLM расшифровывается как «Модель большого языка». Это передовые системы искусственного интеллекта, предназначенные для понимания и создания текста, похожего на человеческий, на основе вводимых данных.&amp;lt;br&amp;gt;&lt;br /&gt;
Эти модели были обучены на огромных объемах текстовых данных и могут выполнять широкий спектр задач, связанных с языком, таких как ответы на вопросы, проведение бесед, обобщение текста, перевод языков и многое другое.&amp;lt;br&amp;gt;&lt;br /&gt;
* '''Обучение модели LLM'''&lt;br /&gt;
На высоком уровне обучение модели LLM включает в себя три этапа, т. е. сбор данных, обучение и оценку.&lt;br /&gt;
* Сбор данных (Data Collection) Первым шагом является сбор данных, которые будут использоваться для обучения модели. Данные могут быть собраны из различных источников, таких как Википедия, новостные статьи, книги, веб-сайты и т. д.&lt;br /&gt;
* Обучение (Training): Затем данные проходят через обучающий конвейер, где они очищаются и предварительно обрабатываются перед тем, как поступить в модель для обучения. Процесс обучения обычно занимает много времени и требует больших вычислительных мощностей.&lt;br /&gt;
* Оценка (Evaluation): Последний шаг — оценить производительность модели, чтобы увидеть, насколько хорошо она справляется с различными задачами, такими как ответы на вопросы, обобщение, перевод и т. д.&lt;br /&gt;
* Результатом конвейера обучения является модель LLM, которая представляет собой просто параметры или веса, отражающие знания, полученные в процессе обучения. Эти параметры или веса обычно сериализуются и хранятся в файле, который затем может быть загружен в любое приложение, требующее возможностей языковой обработки, например, генерация текста, ответы на вопросы, языковая обработка и т. д.&lt;br /&gt;
* '''Типы LLM'''&lt;br /&gt;
На высоком уровне LLM можно разделить на два типа: - базовые LLM - LLM, настроенные под инструкции.&lt;br /&gt;
&lt;br /&gt;
* '''Базовые LLM'''&lt;br /&gt;
Базовые LLM — это LLM, предназначенные для предсказания следующего слова на основе обучающих данных. Они не предназначены для ответов на вопросы, проведения бесед или помощи в решении проблем. Например, если вы дадите базовому LLM предложение «В этой книге мы обсудим LLM», оно может завершить это предложение и дать вам «В этой книге о LLM мы обсудим, что такое LLM, как они работают и как вы можете использовать их в своих приложениях. ». Или, если вы дадите ему «Какие известные социальные сети?», вместо ответа он может ответить «Почему люди используют социальные сети?» или «Каковы преимущества социальных сетей?». Как видите, он дает нам соответствующий текст, но не отвечает на вопрос. Именно здесь в игру вступают LLM, настроенные под инструкции.&lt;br /&gt;
&lt;br /&gt;
* '''LLM, настроенные по инструкции'''&lt;br /&gt;
Instruction Tuned LLM вместо того, чтобы пытаться автозаполнять ваш текст, попробуйте следовать данным инструкциям, используя данные, на которых они были обучены. Например, если вы введете предложение «Что такое LLM?» он будет использовать данные, на которых он обучен, и попытается ответить на вопрос. Точно так же, если вы введете «Какие известные социальные сети?» он попытается ответить на вопрос вместо того, чтобы дать вам случайный ответ.&lt;br /&gt;
&lt;br /&gt;
* Instruction Tuned LLM построены поверх базовых LLM:&lt;br /&gt;
Instruction Tuned LLMs = Base LLMs + Further Tuning + RLHF&lt;br /&gt;
Для создания LLM с настройкой инструкций берется базовый LLM, который дополнительно обучается с использованием большого набора данных, охватывающего пример «Инструкций» и того, как модель должна работать в результате этих инструкций. Затем модель настраивается с помощью метода под названием «обучение с подкреплением с обратной связью человека» (RLHF), который позволяет модели учиться на обратной связи человека и со временем улучшать свою производительность.&lt;br /&gt;
&lt;br /&gt;
* '''В итоге'''&lt;br /&gt;
Языковые модели (LLM) произвели революцию в области обработки естественного языка (NLP), позволив машинам понимать и генерировать человекоподобный текст. LLM — это мощный инструмент, который можно использовать для решения широкого круга языковых задач. Они используются в различных отраслях, таких как здравоохранение, финансы, образование и т. д., для автоматизации процессов и повышения эффективности. У LLM есть потенциал революционизировать то, как мы взаимодействуем с компьютерами, и сделать нашу жизнь проще.&amp;lt;br&amp;gt;&lt;br /&gt;
[https://devopsgu.ru/blog/posts/chto-takoe-llm/#llm_4 Источник]&lt;br /&gt;
&lt;br /&gt;
==РАЗРАБОТКА==&lt;br /&gt;
* [https://nuancesprog.ru/p/18464/ Рост производительности машинного обучения с Rust]&lt;br /&gt;
* [https://uproger.com/biblioteka-rust-burn-dlya-glubokogo-obucheniya/ Библиотека Rust Burn для глубокого обучения]&lt;br /&gt;
* [https://dzen.ru/a/ZzOHE-7MEj_PiZZb Эмбединги с помощью Rust]&lt;br /&gt;
* [https://codezup.com/deploying-machine-learning-models-in-rust-with-rustml/ Развертывание моделей машинного обучения в Rust с помощью RUSTML]&lt;br /&gt;
---&lt;br /&gt;
* [https://github.com/coqui-ai/TTS Coqui TTS (модель XTTS-v2) голос]&lt;br /&gt;
* [https://digest.allm.link/ru/blogs/pixtral-12b-vision-model-now-on-amazon-bedrock/ Pixtral-12B теперь на Amazon Bedrock]&lt;br /&gt;
* [https://github.com/tomstaan/Clarivex-Pixtral-12B Clarivex-Pixtral-12B]&lt;br /&gt;
* [https://habr.com/ru/companies/serverflow/articles/851712/ Тестируем Pixtral12B и LLaMA 3.2 11B на народных Tesla P100 и P40]&lt;br /&gt;
==ИСТОЧНИКИ==&lt;br /&gt;
* [https://vc.ru/ai/881777-spravochnik-po-vyboru-gpu-dlya-raboty-s-bolshimi-yazykovymi-modelyami-llama Справочник по выбору GPU для работы с большими языковыми моделями Llama]&lt;br /&gt;
* [https://habr.com/ru/articles/768844/ Раскрывая секреты LLM: руководство по основным понятиям больших языковых моделей без хайпа]&lt;br /&gt;
&lt;br /&gt;
==ПОЛЕЗНОЕ==&lt;br /&gt;
* [https://huyenchip.com/llama-police Большой список open-source AI-моделей и не только]&lt;br /&gt;
* [https://github.com/stars/chiphuyen/lists/cool-llm-repos GitHub open-source AI List]&lt;br /&gt;
* [https://habr.com/ru/companies/first/articles/699380/ Опенсорс учёный: 15 полезных инструментов с искусственным интеллектом и машинным обучением]&lt;br /&gt;
* [https://sysadmin78.ru/doku.php/open_source:open_source_ai_machine_learning 7 лучших ИИ и систем машинного обучения с открытым исходным кодом]&lt;br /&gt;
* [https://hubai.ru/ HuB AI - Рабочие модели]&lt;br /&gt;
* [https://huggingface.co/spaces/Vokturz/can-it-run-llm Требования по ресурсам модель LLM]&lt;br /&gt;
* [https://www.ixbt.com/live/sw/ustanavlivaem-deepseek-na-domashniy-pk.html Как установить нейронную сеть DeepSeek на ПК]&lt;br /&gt;
* [https://dzen.ru/a/Z5zNHtZRjhRfVDkw Устанавливаем нейросеть DeepSeek локально на компьютер.]&lt;br /&gt;
* [https://rozetked.me/articles/37509-kak-zapustit-neyroset-deepseek-r1-lokal-no-na-svoem-komp-yutere Как запустить нейросеть DeepSeek-R1 локально на своём компьютере]&lt;br /&gt;
* [https://baskovsky.ru/2023/11/saiga/ Используем русский LLM — saiga]&lt;br /&gt;
* [https://vk.com/wall-208569258_115 ProgressNeuro: ChatGPT, Midjourney &amp;amp; Нейросети]&lt;br /&gt;
* [https://habr.com/ru/articles/767588/ Сайга-Мистраль — третья русская нейросеть после YaGPT и GigaChat, публично доступная по API]&lt;br /&gt;
* [https://timeweb.com/ru/community/articles/neyroseti-dlya-transkribacii-audio-i-video-v-tekst-10-luchshih-servisov-podborka Нейросети для транскрибации аудио и видео в текст: 10 лучших сервисов]&lt;br /&gt;
* [https://serverflow.ru/blog/stati/luchshie-modeli-ii-dlya-razvertyvaniya-na-svoem-pk-ili-servere-podrobno-o-trebovaniyakh-dlya-razvert/ Лучшие модели ИИ для развертывания на своем ПК или сервере]&lt;br /&gt;
* [https://pikabu.ru/story/luchshie_otkryityie_modeli_ii_dlya_sinteza_russkoy_rechi_na_domashnem_pk_12859001 Лучшие открытые модели ИИ для синтеза русской речи на домашнем ПК]&lt;br /&gt;
* [https://translated.turbopages.org/proxy_u/en-ru.ru.e01f73f9-69038089-64503cc9-74722d776562/https/www.freecodecamp.org/news/machine-learning-using-julia/ Машинное обучение с помощью Julia — как создать и развернуть обученную модель ИИ в виде веб-сервиса]&lt;br /&gt;
* [https://devtrends.ru/python/janvarev-irene-voice-assistant Ирина - ваш личный русскоязычный ассистент без зависимости от интернета]&lt;br /&gt;
* [https://devtrends.ru/typescript/janhq-jan Ваш персональный AI-ассистент, который не требует интернета]&lt;br /&gt;
* [https://habr.com/ru/companies/minerva_media/articles/909130/ За полчаса установил DeepSeek 1.5B, пока вы искали GPT подешевле]&lt;br /&gt;
* [https://1dedic.ru/blog/articles/lokalnoe-ispolzovanie-yazykovoy-modeli-na-vydelennom-servere-chast-pervaya-deepseek-i-eyo Локальное использование языковой модели на выделенном сервере. Часть первая: DeepSeek и её дистилляты на сервере без GPU]&lt;br /&gt;
* [https://mclouds.ru/2025/04/deploying-deepseek/ Как развернуть DeepSeek на своем сервере]&lt;br /&gt;
* [https://help.apiyi.com/ru/kimi-k2-5-paper-parameters-requirements-guide-ru.html Обзор технической статьи Kimi K2.5 ...]&lt;br /&gt;
* [https://habr.com/ru/articles/969748/ Kimi K2: новая китайская LLM ...]&lt;br /&gt;
* [https://www.ai-stat.ru/news/2026-01-30-kimi-k25-local-guide Как запустить Kimi K2.5 локально: полный гайд]&lt;br /&gt;
---&lt;br /&gt;
* [https://habr.com/ru/articles/896204/ Сравниваем скорость генерации LLM локально и по API]&lt;br /&gt;
* [https://habr.com/ru/companies/minerva_media/articles/920946/ 15 минут — и у тебя бесплатная ИИ-модель для генерации кода, текста, чтения иллюстраций]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=NVIDIA_TESLA_P40_24Gb&amp;diff=4668</id>
		<title>NVIDIA TESLA P40 24Gb</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=NVIDIA_TESLA_P40_24Gb&amp;diff=4668"/>
		<updated>2026-04-16T19:26:03Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;&lt;br /&gt;
* [https://wvthoog.nl/proxmox-7-vgpu-v2/ Proxmox 7 vGPU – v2]&lt;br /&gt;
* [https://www.tune-it.ru/web/ifsolo/blog/-/blogs/razblokirovka-vgpu-na-pol-zovatel-skih-videokartah-nvidia Разблокировка vGPU на пользовательских видеокартах NVIDIA]&lt;br /&gt;
* [https://docs.virtuozzo.com/virtuozzo_hybrid_infrastructure_4_7_admins_guide/index.html#preparing-nodes-gpu-passthrough.html Administrator Guide]&lt;br /&gt;
* [https://pve.proxmox.com/wiki/NVIDIA_vGPU_on_Proxmox_VE NVIDIA vGPU on Proxmox VE]&lt;br /&gt;
* [https://www.derekseaman.com/2024/07/proxmox-ve-8-2-windows-11-vgpu-vt-d-passthrough-with-intel-alder-lake.html Proxmox VE 8.2: Windows 11 vGPU (VT-d) Passthrough with Intel Alder Lake]&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://github.com/ProTechEx/vgpu-proxmox#nvidia-driver NVIDIA vGPU on Proxmox]&lt;br /&gt;
* [https://files.nvidia.space/Drivers/ nvidia.space/Drivers]&lt;br /&gt;
* [https://cloud.google.com/compute/docs/gpus/grid-drivers-table grid-drivers-table]&lt;br /&gt;
* [https://git.collinwebdesigns.de/oscar.krause/fastapi-dls Minimal Delegated License Service (DLS).]&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://archive.org/details/nvidiagpuarchive NVIDIA vGPU Archive]&lt;br /&gt;
* [https://github.com/NVIDIA/cuda-gdb/releases cuda-toolkit]&lt;br /&gt;
* [https://developer.nvidia.com/cuda-12-2-0-download-archive?target_os=Linux&amp;amp;target_arch=x86_64&amp;amp;Distribution=Debian&amp;amp;target_version=11&amp;amp;target_type=deb_local  CUDA Toolkit 12.2 Downloads]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=%D0%9B%D1%83%D1%87%D1%88%D0%B0%D1%8F_%D1%81%D0%B1%D0%BE%D1%80%D0%BA%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%BB%D0%BE%D0%BA%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D0%B3%D0%BE_%D0%98%D0%98_%D0%BD%D0%B0_%D1%81%D0%BB%D0%B0%D0%B1%D0%BE%D0%BC_%D0%B6%D0%B5%D0%BB%D0%B5%D0%B7%D0%B5:_OmniCoder-9B,_llama.cpp_%D0%B8_32_%D0%93%D0%91_%D0%9E%D0%97%D0%A3&amp;diff=4667</id>
		<title>Лучшая сборка для локального ИИ на слабом железе: OmniCoder-9B, llama.cpp и 32 ГБ ОЗУ</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=%D0%9B%D1%83%D1%87%D1%88%D0%B0%D1%8F_%D1%81%D0%B1%D0%BE%D1%80%D0%BA%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%BB%D0%BE%D0%BA%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D0%B3%D0%BE_%D0%98%D0%98_%D0%BD%D0%B0_%D1%81%D0%BB%D0%B0%D0%B1%D0%BE%D0%BC_%D0%B6%D0%B5%D0%BB%D0%B5%D0%B7%D0%B5:_OmniCoder-9B,_llama.cpp_%D0%B8_32_%D0%93%D0%91_%D0%9E%D0%97%D0%A3&amp;diff=4667"/>
		<updated>2026-04-15T19:13:17Z</updated>

		<summary type="html">&lt;p&gt;Vix: /* Подготовка поля боя: что нужно сделать до загрузки модели */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Вводная==&lt;br /&gt;
'''Полное руководство по запуску OmniCoder-9B с llama.cpp на слабом железе.'''&amp;lt;br&amp;gt;&lt;br /&gt;
'''Квантование Q4_K_M, настройка CUDA, тесты скорости. Ежедневный кодинг без облачных затрат.'''&amp;lt;br&amp;gt;&lt;br /&gt;
* Когда 8 ГБ видеопамяти должно хватить на всё.&lt;br /&gt;
Вы купили RTX 3070 пару лет назад, и она отлично тянула игры. Теперь вы хотите запустить локальную нейросеть для помощи в кодинге, но каждая модель требует минимум 24 ГБ VRAM. Ваши 8 ГБ – шутка. Вы скачиваете какую-то 7B-модель, а она выдаёт код, который выглядит так, словно его писал студент после трёх бессонных ночей. Знакомая ситуация?&lt;br /&gt;
&lt;br /&gt;
Проблема не в вас. Проблема в том, что большинство гайдов написано для гиков с RTX 4090 и 64 ГБ оперативки. Они могут запустить [https://ai-manual.ru/article/kak-zapustit-llama-70b-lokalno-na-svoyom-kompyutere-poshagovoe-rukovodstvo-dlya-novichkov/  Llama 70B] и не моргнуть глазом. У нас же другие реалии.&lt;br /&gt;
&lt;br /&gt;
* Решение существует. И оно не требует покупки нового железа или продажи почки для облачных кредитов. Всё упирается в три компонента: правильная модель, правильный движок и правильная настройка. На март 2026 года лучший баланс для разработчика с ограниченными ресурсами – это связка OmniCoder-9B, llama.cpp с CUDA и квантование Q4_K_M.&lt;br /&gt;
&lt;br /&gt;
 Забудьте про обещания «запустить что угодно на чём угодно». Речь идёт о рабочем инструменте для ежедневного использования, а не демо на один раз. Скорость генерации должна быть комфортной, а качество кода – приемлемым для реальных задач.&lt;br /&gt;
&lt;br /&gt;
* Почему именно эта тройка? Разбор без маркетинга.&lt;br /&gt;
OmniCoder-9B – не самая новая, но самая выверенная модель для кодинга в своём классе на 2026 год. Её создатели не гнались за параметрами, а оптимизировали архитектуру именно под понимание и генерацию кода. В отличие от общих моделей, она реже «галлюцинирует» названиями функций и лучше понимает контекст.&lt;br /&gt;
&lt;br /&gt;
* llama.cpp – де-факто стандарт для запуска LLM на потребительском железе. Его последние версии (на момент написания – ветка 2.5.x) сделали огромный скачок в эффективности использования CUDA, особенно для карт с 8 ГБ памяти. Сборка [https://ai-manual.ru/article/sborka-llamacpp-ne-dlya-vseh-kak-zastavit-ego-letat-na-tvoyom-zheleze/ llama.cpp] теперь умеет грациозно работать с смешанной загрузкой (GPU + RAM), что критично для нас.&lt;br /&gt;
&lt;br /&gt;
* Квантование Q4_K_M – золотая середина. Более агрессивные квантования (Q2_K, Q3_K) сильно бьют по качеству, особенно в логических рассуждениях. Менее агрессивные (Q5_K_M, Q6_K) съедают слишком много памяти. Q4_K_M сжимает модель примерно до 5.5 ГБ, оставляя ей достаточно «интеллекта» для решения нетривиальных задач.&lt;br /&gt;
&lt;br /&gt;
 Альтернатива? Конечно, есть. Например, связка OpenCode Interpreter с GLM-5-9B, которая показывает хорошие результаты в интерактивном выполнении кода. Но её требования к памяти и стабильность работы в марте 2026 года всё ещё оставляют желать лучшего для ежедневной работы на слабом железе.&lt;br /&gt;
==Подготовка поля боя: что нужно сделать до загрузки модели==&lt;br /&gt;
Первая ошибка – скачать всё подряд и надеяться, что заработает. Не заработает. Нам нужна чистая система, правильные драйверы и освобождённая память.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
1. Очистка системы от цифрового мусора&amp;lt;br&amp;gt;&lt;br /&gt;
Закройте Chrome с 50 вкладками. Серьёзно. Каждая вкладка – это сотни мегабайт оперативки, которая нам позарез нужна для offload-а слоёв модели из VRAM в RAM. Если у вас 32 ГБ ОЗУ, перед запуском должно быть свободно минимум 18-20 ГБ. Проверьте фоновые процессы. Выгрузите всё, что не нужно.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
2. Установка самых свежих драйверов и CUDA&lt;br /&gt;
На март 2026 года стабильная ветка CUDA – это 12.6. Драйверы NVIDIA должны быть не старше февраля 2026. Да, иногда новые драйверы ломают совместимость, но в случае с llama.cpp разработчики быстро выпускают фиксы. Старые драйверы гарантированно дадут падение производительности или ошибки компиляции.&lt;br /&gt;
&lt;br /&gt;
3. Проверяем версию драйвера&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
 # Ожидаем что-то вроде:&lt;br /&gt;
 # Driver Version: 555.xx.xx&lt;br /&gt;
 # CUDA Version: 12.6&lt;br /&gt;
 Если версия CUDA не указана или старая, качаем с официального сайта NVIDIA. Не через пакетный менеджер, если вы не уверены в его настройках. Прямая загрузка – ваш друг.&lt;br /&gt;
&lt;br /&gt;
* Не пытайтесь установить CUDA Toolkit через apt-get на Ubuntu без чёткого понимания репозиториев. В 90% случаев вы получите конфликт версий, и сборка llama.cpp сломается с невнятной ошибкой про «не найден cudart». Лучший способ – локальный установщик от NVIDIA.&lt;br /&gt;
&lt;br /&gt;
* Сборка llama.cpp с CUDA: не пропустите эти флаги&lt;br /&gt;
Качаем исходники. Никаких готовых бинарников – они собраны с универсальными настройками, которые не раскроют потенциал вашей карты.&lt;br /&gt;
&lt;br /&gt;
 git clone https://github.com/ggerganov/llama.cpp&lt;br /&gt;
 cd llama.cpp&lt;br /&gt;
 # Переключаемся на последнюю стабильную ветку (актуально на март 2026)&lt;br /&gt;
 git checkout release/2.5&lt;br /&gt;
 Теперь самое важное – компиляция. Классическая ошибка: сделать просто `make`. Это соберёт CPU-версию, которая будет работать в  20 раз медленнее. Нам нужна сборка с поддержкой CUDA и, что критично, со слоёвым offload-ом.&lt;br /&gt;
&lt;br /&gt;
4. Очищаем предыдущие сборки (на всякий случай)&lt;br /&gt;
 make clean&lt;br /&gt;
&lt;br /&gt;
5. Ключевая команда. Флаги:&lt;br /&gt;
 # LLAMA_CUDA=1 - включаем CUDA&lt;br /&gt;
 # LLAMA_CUDA_FORCE_DMMV=1 - принудительно используем более быстрые матричные операции для архитектур Ampere (RTX 3070) и новее&lt;br /&gt;
 # LLAMA_CUDA_MMQ=1 - включаем оптимизированные очереди матриц (существенно для скорости)&lt;br /&gt;
 # LLAMA_CUDA_F16=1 - работа с половинной точностью (экономия памяти без большого ущерба)&lt;br /&gt;
&lt;br /&gt;
 make LLAMA_CUDA=1 LLAMA_CUDA_FORCE_DMMV=1 LLAMA_CUDA_MMQ=1 LLAMA_CUDA_F16=1 -j$(nproc)&lt;br /&gt;
 Флаг `-j$(nproc)` использует все ядра процессора для компиляции, это быстрее. После успешной сборки в папке появится бинарник  `main` (или `main.exe` на Windows). Это наш рабочий инструмент.&lt;br /&gt;
&lt;br /&gt;
* Загрузка и квантование OmniCoder-9B: где брать и как сжать&lt;br /&gt;
Оригинальная полная версия OmniCoder-9B весит около 18 ГБ в формате FP16. Нам это не подходит. Идём на Hugging Face и ищем квантованные версии. Ключевые слова: «OmniCoder-9B-GGUF». GGUF – это формат, который понимает llama.cpp.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
* Если готовой версии Q4_K_M нет (что маловероятно к 2026 году), качаем оригинальную модель и квантуем сами. Это долго, но просто.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
 # Предположим, скачали модель в папку ./models&lt;br /&gt;
 # Конвертируем в формат GGUF (если скачали в формате PyTorch/Safetensors)&lt;br /&gt;
 python3 convert.py ./models/OmniCoder-9B --outtype f16 --outfile ./models/omnicoder-9b.f16.gguf&lt;br /&gt;
&lt;br /&gt;
6. Теперь квантуем до Q4_K_M&lt;br /&gt;
 ./quantize ./models/omnicoder-9b.f16.gguf ./models/omnicoder-9b.Q4_K_M.gguf Q4_K_M&lt;br /&gt;
 Процесс квантования может занять 10-30 минут. На выходе получите файл весом ~5.5 ГБ. Именно его мы и будем запускать.&lt;br /&gt;
&lt;br /&gt;
💡 Где брать модели? Платформа Hugging Face – основной хаб. Для конкретно этой модели ищите репозиторий от создателей или сообщества «TheBloke», который славится качественными квантованиями. Прямые ссылки имеют свойство умирать, поэтому ищите по названию.&lt;br /&gt;
&lt;br /&gt;
==Запуск и настройка: магия флагов командной строки==&lt;br /&gt;
Вот момент истины. Запускаем модель с правильными параметрами, чтобы она поместилась в память и работала быстро.&lt;br /&gt;
&lt;br /&gt;
./main -m ./models/omnicoder-9b.Q4_K_M.gguf \&lt;br /&gt;
  -n 512 \&lt;br /&gt;
  -t 10 \&lt;br /&gt;
  -ngl 33 \&lt;br /&gt;
  -c 8192 \&lt;br /&gt;
  --temp 0.2 \&lt;br /&gt;
  --top-p 0.95 \&lt;br /&gt;
  -p &amp;quot;Код на Python для быстрой сортировки:&amp;quot;&lt;br /&gt;
Разберём каждый флаг, потому что без понимания вы будете тыкать наугад.&lt;br /&gt;
&lt;br /&gt;
-n 512: генерируем 512 токенов. Достаточно для небольшой функции или блока кода.&lt;br /&gt;
-t 10: используем 10 CPU-потоков для обработки тех слоёв, которые не влезли в VRAM. Оптимально для большинства 6-8 ядерных процессоров.&lt;br /&gt;
-ngl 33: САМЫЙ ВАЖНЫЙ ПАРАМЕТР. Количество слоёв, которые загружаем в VRAM. OmniCoder-9B имеет около 40-45 слоёв. 33 – это примерно 75% модели. Они будут обрабатываться на GPU со скоростью света. Остальные слои (offload) уйдут в оперативку и будут считаться на CPU. Баланс, который позволяет уместить модель в 8 ГБ VRAM и не превратить генерацию в слайд-шоу.&lt;br /&gt;
-c 8192: размер контекста. 8K – хороший компромисс для работы с несколькими файлами. Можно и больше, но помните: каждый токен контекста съедает память. Если нужен огромный контекст, изучите технику SSD offload.&lt;br /&gt;
--temp 0.2, --top-p 0.95: параметры «творчества». Для кодинга нужна низкая температура (больше детерминизма) и высокий top-p (для разнообразия, но без бреда).&lt;br /&gt;
После запуска вы увидите, как модель загружает слои в VRAM и RAM. Если всё настроено верно, потребление VRAM будет на уровне 6.5-7.5 ГБ, а оперативки – 12-15 ГБ. Генерация 512 токенов должна занимать 20-40 секунд. Это не мгновенно, но вполне терпимо для обдумывания задачи.&lt;br /&gt;
&lt;br /&gt;
==Интеграция в рабочий процесс: не останавливайтесь на консоли==&lt;br /&gt;
Работать через консольный ввод – это каменный век. Нам нужна интеграция в IDE или хотя бы удобный интерфейс.&lt;br /&gt;
&lt;br /&gt;
Вариант 1: Superpowers (или его форки 2026 года). Это локальный веб-интерфейс, который подключается к llama.cpp как бэкенд. Настраивается за 5 минут, даёт удобный чат, историю, возможность загружать файлы в контекст.&lt;br /&gt;
&lt;br /&gt;
Вариант 2: Плагин для VSCode, например, Continue.dev или его аналоги, которые умеют работать с локальными LLM через API. Запускаем llama.cpp в server mode:&lt;br /&gt;
&lt;br /&gt;
./server -m ./models/omnicoder-9b.Q4_K_M.gguf -c 8192 -ngl 33 --host 127.0.0.1 --port 8080&lt;br /&gt;
И настраиваем плагин на этот адрес. Теперь автодополнение и чат с ИИ прямо в редакторе. Без облаков, без подписок.&lt;br /&gt;
&lt;br /&gt;
Не используйте стандартный `--server` флаг из старых версий llama.cpp. В версиях 2.5.x его заменил отдельный бинарник `server`, который собирается вместе с `main`. Если его нет, пересоберите проект с теми же флагами.&lt;br /&gt;
&lt;br /&gt;
Что делать, если всё падает? Типичные ошибки и их лечение&lt;br /&gt;
1. «CUDA out of memory» сразу после запуска. Слишком большое значение `-ngl`. Уменьшайте на 5-10, пока не заработает. Для RTX 3070 8GB стартовая точка – 28-33 слоя.&lt;br /&gt;
&lt;br /&gt;
2. Генерация тормозит (меньше 1 токена в секунду). Скорее всего, модель работает почти полностью на CPU. Проверьте, что `-ngl` больше 0 и что llama.cpp собрана с CUDA. Запустите `nvidia-smi` во время генерации – должна быть загрузка GPU.&lt;br /&gt;
&lt;br /&gt;
3. Модель выдаёт бессвязный текст вместо кода. Вы скачали не ту версию. OmniCoder – модель, дообученная именно на код. Убедитесь, что это не базовая общая LLM. Также проверьте параметры `--temp` – если она выше 0.7, модель начнёт «сочинять».&lt;br /&gt;
&lt;br /&gt;
4. Ошибка «Illegal instruction» при запуске. Проблема совместимости CPU. Собирайте llama.cpp с флагом `-march=native` или, если используете Docker, образ должен быть собран для вашей архитектуры. Чаще встречается на старых процессорах.&lt;br /&gt;
&lt;br /&gt;
А что с альтернативами? Краткий обзор на 2026 год&lt;br /&gt;
Opencode + GLM-5-9B: мощная комбинация для интерактивного выполнения кода (модель может запускать код в песочнице и исправлять ошибки). Но её минимальные требования – 10 ГБ VRAM для комфортной работы, и она менее стабильна в режиме offload. Если у вас есть запас по памяти – стоит попробовать.&lt;br /&gt;
&lt;br /&gt;
DeepSeek-Coder-7B: отличная модель, но на март 2026 года уже немного устарела по сравнению с оптимизациями в OmniCoder. Запускается легко, но качество кода в сложных задачах проседает.&lt;br /&gt;
&lt;br /&gt;
Если у вас совсем мало ОЗУ (16 ГБ), смотрите в сторону моделей на 7 миллиардов параметров с квантованием Q4_K_M. Они поместятся полностью в VRAM 8 ГБ карты, но и возможностей у них меньше.&lt;br /&gt;
&lt;br /&gt;
Гонка за параметрами бессмысленна на слабом железе. Важнее эффективность и специализация. OmniCoder-9B в связке с правильно собранным llama.cpp даёт максимальный результат на ограниченных ресурсах. Это не игрушка, а рабочий инструмент, который окупается за неделю активного использования.&lt;br /&gt;
&lt;br /&gt;
И последний совет: не зацикливайтесь на одной модели. Раз в месяц проверяйте Hugging Face на предмет новых квантований или оптимизированных версий. Мир локальных LLM движется не так быстро, как корпоративный, но движется. И теперь вы знаете, как заставить его работать на себе, а не против.&lt;br /&gt;
&lt;br /&gt;
==Источники==&lt;br /&gt;
* [https://ai-manual.ru/article/luchshaya-sborka-dlya-lokalnogo-ii-na-slabom-zheleze-omnicoder-9b-llamacpp-i-32-gb-ozu/ Лучшая сборка для локального ИИ на слабом железе: OmniCoder-9B, llama.cpp и 32 ГБ ОЗУ]&lt;br /&gt;
* [https://github.com/marselcomp/aiguide Запуск нейросетей на слабом ПК — реально!]&lt;br /&gt;
* [https://habr.com/ru/companies/bothub/articles/1019314/ Топ локальных нейросетей 2026: полный суверенитет без интернета]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=%D0%9B%D1%83%D1%87%D1%88%D0%B0%D1%8F_%D1%81%D0%B1%D0%BE%D1%80%D0%BA%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%BB%D0%BE%D0%BA%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D0%B3%D0%BE_%D0%98%D0%98_%D0%BD%D0%B0_%D1%81%D0%BB%D0%B0%D0%B1%D0%BE%D0%BC_%D0%B6%D0%B5%D0%BB%D0%B5%D0%B7%D0%B5:_OmniCoder-9B,_llama.cpp_%D0%B8_32_%D0%93%D0%91_%D0%9E%D0%97%D0%A3&amp;diff=4666</id>
		<title>Лучшая сборка для локального ИИ на слабом железе: OmniCoder-9B, llama.cpp и 32 ГБ ОЗУ</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=%D0%9B%D1%83%D1%87%D1%88%D0%B0%D1%8F_%D1%81%D0%B1%D0%BE%D1%80%D0%BA%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%BB%D0%BE%D0%BA%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D0%B3%D0%BE_%D0%98%D0%98_%D0%BD%D0%B0_%D1%81%D0%BB%D0%B0%D0%B1%D0%BE%D0%BC_%D0%B6%D0%B5%D0%BB%D0%B5%D0%B7%D0%B5:_OmniCoder-9B,_llama.cpp_%D0%B8_32_%D0%93%D0%91_%D0%9E%D0%97%D0%A3&amp;diff=4666"/>
		<updated>2026-04-15T19:12:26Z</updated>

		<summary type="html">&lt;p&gt;Vix: /* Подготовка поля боя: что нужно сделать до загрузки модели */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Вводная==&lt;br /&gt;
'''Полное руководство по запуску OmniCoder-9B с llama.cpp на слабом железе.'''&amp;lt;br&amp;gt;&lt;br /&gt;
'''Квантование Q4_K_M, настройка CUDA, тесты скорости. Ежедневный кодинг без облачных затрат.'''&amp;lt;br&amp;gt;&lt;br /&gt;
* Когда 8 ГБ видеопамяти должно хватить на всё.&lt;br /&gt;
Вы купили RTX 3070 пару лет назад, и она отлично тянула игры. Теперь вы хотите запустить локальную нейросеть для помощи в кодинге, но каждая модель требует минимум 24 ГБ VRAM. Ваши 8 ГБ – шутка. Вы скачиваете какую-то 7B-модель, а она выдаёт код, который выглядит так, словно его писал студент после трёх бессонных ночей. Знакомая ситуация?&lt;br /&gt;
&lt;br /&gt;
Проблема не в вас. Проблема в том, что большинство гайдов написано для гиков с RTX 4090 и 64 ГБ оперативки. Они могут запустить [https://ai-manual.ru/article/kak-zapustit-llama-70b-lokalno-na-svoyom-kompyutere-poshagovoe-rukovodstvo-dlya-novichkov/  Llama 70B] и не моргнуть глазом. У нас же другие реалии.&lt;br /&gt;
&lt;br /&gt;
* Решение существует. И оно не требует покупки нового железа или продажи почки для облачных кредитов. Всё упирается в три компонента: правильная модель, правильный движок и правильная настройка. На март 2026 года лучший баланс для разработчика с ограниченными ресурсами – это связка OmniCoder-9B, llama.cpp с CUDA и квантование Q4_K_M.&lt;br /&gt;
&lt;br /&gt;
 Забудьте про обещания «запустить что угодно на чём угодно». Речь идёт о рабочем инструменте для ежедневного использования, а не демо на один раз. Скорость генерации должна быть комфортной, а качество кода – приемлемым для реальных задач.&lt;br /&gt;
&lt;br /&gt;
* Почему именно эта тройка? Разбор без маркетинга.&lt;br /&gt;
OmniCoder-9B – не самая новая, но самая выверенная модель для кодинга в своём классе на 2026 год. Её создатели не гнались за параметрами, а оптимизировали архитектуру именно под понимание и генерацию кода. В отличие от общих моделей, она реже «галлюцинирует» названиями функций и лучше понимает контекст.&lt;br /&gt;
&lt;br /&gt;
* llama.cpp – де-факто стандарт для запуска LLM на потребительском железе. Его последние версии (на момент написания – ветка 2.5.x) сделали огромный скачок в эффективности использования CUDA, особенно для карт с 8 ГБ памяти. Сборка [https://ai-manual.ru/article/sborka-llamacpp-ne-dlya-vseh-kak-zastavit-ego-letat-na-tvoyom-zheleze/ llama.cpp] теперь умеет грациозно работать с смешанной загрузкой (GPU + RAM), что критично для нас.&lt;br /&gt;
&lt;br /&gt;
* Квантование Q4_K_M – золотая середина. Более агрессивные квантования (Q2_K, Q3_K) сильно бьют по качеству, особенно в логических рассуждениях. Менее агрессивные (Q5_K_M, Q6_K) съедают слишком много памяти. Q4_K_M сжимает модель примерно до 5.5 ГБ, оставляя ей достаточно «интеллекта» для решения нетривиальных задач.&lt;br /&gt;
&lt;br /&gt;
 Альтернатива? Конечно, есть. Например, связка OpenCode Interpreter с GLM-5-9B, которая показывает хорошие результаты в интерактивном выполнении кода. Но её требования к памяти и стабильность работы в марте 2026 года всё ещё оставляют желать лучшего для ежедневной работы на слабом железе.&lt;br /&gt;
==Подготовка поля боя: что нужно сделать до загрузки модели==&lt;br /&gt;
Первая ошибка – скачать всё подряд и надеяться, что заработает. Не заработает. Нам нужна чистая система, правильные драйверы и освобождённая память.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
# Очистка системы от цифрового мусора&amp;lt;br&amp;gt;&lt;br /&gt;
Закройте Chrome с 50 вкладками. Серьёзно. Каждая вкладка – это сотни мегабайт оперативки, которая нам позарез нужна для offload-а слоёв модели из VRAM в RAM. Если у вас 32 ГБ ОЗУ, перед запуском должно быть свободно минимум 18-20 ГБ. Проверьте фоновые процессы. Выгрузите всё, что не нужно.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
# Установка самых свежих драйверов и CUDA&lt;br /&gt;
На март 2026 года стабильная ветка CUDA – это 12.6. Драйверы NVIDIA должны быть не старше февраля 2026. Да, иногда новые драйверы ломают совместимость, но в случае с llama.cpp разработчики быстро выпускают фиксы. Старые драйверы гарантированно дадут падение производительности или ошибки компиляции.&lt;br /&gt;
&lt;br /&gt;
# Проверяем версию драйвера&lt;br /&gt;
 nvidia-smi&lt;br /&gt;
 # Ожидаем что-то вроде:&lt;br /&gt;
 # Driver Version: 555.xx.xx&lt;br /&gt;
 # CUDA Version: 12.6&lt;br /&gt;
 Если версия CUDA не указана или старая, качаем с официального сайта NVIDIA. Не через пакетный менеджер, если вы не уверены в его настройках. Прямая загрузка – ваш друг.&lt;br /&gt;
&lt;br /&gt;
* Не пытайтесь установить CUDA Toolkit через apt-get на Ubuntu без чёткого понимания репозиториев. В 90% случаев вы получите конфликт версий, и сборка llama.cpp сломается с невнятной ошибкой про «не найден cudart». Лучший способ – локальный установщик от NVIDIA.&lt;br /&gt;
&lt;br /&gt;
* Сборка llama.cpp с CUDA: не пропустите эти флаги&lt;br /&gt;
Качаем исходники. Никаких готовых бинарников – они собраны с универсальными настройками, которые не раскроют потенциал вашей карты.&lt;br /&gt;
&lt;br /&gt;
 git clone https://github.com/ggerganov/llama.cpp&lt;br /&gt;
 cd llama.cpp&lt;br /&gt;
 # Переключаемся на последнюю стабильную ветку (актуально на март 2026)&lt;br /&gt;
 git checkout release/2.5&lt;br /&gt;
 Теперь самое важное – компиляция. Классическая ошибка: сделать просто `make`. Это соберёт CPU-версию, которая будет работать в  20 раз медленнее. Нам нужна сборка с поддержкой CUDA и, что критично, со слоёвым offload-ом.&lt;br /&gt;
&lt;br /&gt;
# Очищаем предыдущие сборки (на всякий случай)&lt;br /&gt;
 make clean&lt;br /&gt;
&lt;br /&gt;
# Ключевая команда. Флаги:&lt;br /&gt;
 # LLAMA_CUDA=1 - включаем CUDA&lt;br /&gt;
 # LLAMA_CUDA_FORCE_DMMV=1 - принудительно используем более быстрые матричные операции для архитектур Ampere (RTX 3070) и новее&lt;br /&gt;
 # LLAMA_CUDA_MMQ=1 - включаем оптимизированные очереди матриц (существенно для скорости)&lt;br /&gt;
 # LLAMA_CUDA_F16=1 - работа с половинной точностью (экономия памяти без большого ущерба)&lt;br /&gt;
&lt;br /&gt;
 make LLAMA_CUDA=1 LLAMA_CUDA_FORCE_DMMV=1 LLAMA_CUDA_MMQ=1 LLAMA_CUDA_F16=1 -j$(nproc)&lt;br /&gt;
 Флаг `-j$(nproc)` использует все ядра процессора для компиляции, это быстрее. После успешной сборки в папке появится бинарник  `main` (или `main.exe` на Windows). Это наш рабочий инструмент.&lt;br /&gt;
&lt;br /&gt;
* Загрузка и квантование OmniCoder-9B: где брать и как сжать&lt;br /&gt;
Оригинальная полная версия OmniCoder-9B весит около 18 ГБ в формате FP16. Нам это не подходит. Идём на Hugging Face и ищем квантованные версии. Ключевые слова: «OmniCoder-9B-GGUF». GGUF – это формат, который понимает llama.cpp.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
* Если готовой версии Q4_K_M нет (что маловероятно к 2026 году), качаем оригинальную модель и квантуем сами. Это долго, но просто.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
 # Предположим, скачали модель в папку ./models&lt;br /&gt;
 # Конвертируем в формат GGUF (если скачали в формате PyTorch/Safetensors)&lt;br /&gt;
 python3 convert.py ./models/OmniCoder-9B --outtype f16 --outfile ./models/omnicoder-9b.f16.gguf&lt;br /&gt;
&lt;br /&gt;
 # Теперь квантуем до Q4_K_M&lt;br /&gt;
 ./quantize ./models/omnicoder-9b.f16.gguf ./models/omnicoder-9b.Q4_K_M.gguf Q4_K_M&lt;br /&gt;
 Процесс квантования может занять 10-30 минут. На выходе получите файл весом ~5.5 ГБ. Именно его мы и будем запускать.&lt;br /&gt;
&lt;br /&gt;
💡 Где брать модели? Платформа Hugging Face – основной хаб. Для конкретно этой модели ищите репозиторий от создателей или сообщества «TheBloke», который славится качественными квантованиями. Прямые ссылки имеют свойство умирать, поэтому ищите по названию.&lt;br /&gt;
&lt;br /&gt;
==Запуск и настройка: магия флагов командной строки==&lt;br /&gt;
Вот момент истины. Запускаем модель с правильными параметрами, чтобы она поместилась в память и работала быстро.&lt;br /&gt;
&lt;br /&gt;
./main -m ./models/omnicoder-9b.Q4_K_M.gguf \&lt;br /&gt;
  -n 512 \&lt;br /&gt;
  -t 10 \&lt;br /&gt;
  -ngl 33 \&lt;br /&gt;
  -c 8192 \&lt;br /&gt;
  --temp 0.2 \&lt;br /&gt;
  --top-p 0.95 \&lt;br /&gt;
  -p &amp;quot;Код на Python для быстрой сортировки:&amp;quot;&lt;br /&gt;
Разберём каждый флаг, потому что без понимания вы будете тыкать наугад.&lt;br /&gt;
&lt;br /&gt;
-n 512: генерируем 512 токенов. Достаточно для небольшой функции или блока кода.&lt;br /&gt;
-t 10: используем 10 CPU-потоков для обработки тех слоёв, которые не влезли в VRAM. Оптимально для большинства 6-8 ядерных процессоров.&lt;br /&gt;
-ngl 33: САМЫЙ ВАЖНЫЙ ПАРАМЕТР. Количество слоёв, которые загружаем в VRAM. OmniCoder-9B имеет около 40-45 слоёв. 33 – это примерно 75% модели. Они будут обрабатываться на GPU со скоростью света. Остальные слои (offload) уйдут в оперативку и будут считаться на CPU. Баланс, который позволяет уместить модель в 8 ГБ VRAM и не превратить генерацию в слайд-шоу.&lt;br /&gt;
-c 8192: размер контекста. 8K – хороший компромисс для работы с несколькими файлами. Можно и больше, но помните: каждый токен контекста съедает память. Если нужен огромный контекст, изучите технику SSD offload.&lt;br /&gt;
--temp 0.2, --top-p 0.95: параметры «творчества». Для кодинга нужна низкая температура (больше детерминизма) и высокий top-p (для разнообразия, но без бреда).&lt;br /&gt;
После запуска вы увидите, как модель загружает слои в VRAM и RAM. Если всё настроено верно, потребление VRAM будет на уровне 6.5-7.5 ГБ, а оперативки – 12-15 ГБ. Генерация 512 токенов должна занимать 20-40 секунд. Это не мгновенно, но вполне терпимо для обдумывания задачи.&lt;br /&gt;
&lt;br /&gt;
==Интеграция в рабочий процесс: не останавливайтесь на консоли==&lt;br /&gt;
Работать через консольный ввод – это каменный век. Нам нужна интеграция в IDE или хотя бы удобный интерфейс.&lt;br /&gt;
&lt;br /&gt;
Вариант 1: Superpowers (или его форки 2026 года). Это локальный веб-интерфейс, который подключается к llama.cpp как бэкенд. Настраивается за 5 минут, даёт удобный чат, историю, возможность загружать файлы в контекст.&lt;br /&gt;
&lt;br /&gt;
Вариант 2: Плагин для VSCode, например, Continue.dev или его аналоги, которые умеют работать с локальными LLM через API. Запускаем llama.cpp в server mode:&lt;br /&gt;
&lt;br /&gt;
./server -m ./models/omnicoder-9b.Q4_K_M.gguf -c 8192 -ngl 33 --host 127.0.0.1 --port 8080&lt;br /&gt;
И настраиваем плагин на этот адрес. Теперь автодополнение и чат с ИИ прямо в редакторе. Без облаков, без подписок.&lt;br /&gt;
&lt;br /&gt;
Не используйте стандартный `--server` флаг из старых версий llama.cpp. В версиях 2.5.x его заменил отдельный бинарник `server`, который собирается вместе с `main`. Если его нет, пересоберите проект с теми же флагами.&lt;br /&gt;
&lt;br /&gt;
Что делать, если всё падает? Типичные ошибки и их лечение&lt;br /&gt;
1. «CUDA out of memory» сразу после запуска. Слишком большое значение `-ngl`. Уменьшайте на 5-10, пока не заработает. Для RTX 3070 8GB стартовая точка – 28-33 слоя.&lt;br /&gt;
&lt;br /&gt;
2. Генерация тормозит (меньше 1 токена в секунду). Скорее всего, модель работает почти полностью на CPU. Проверьте, что `-ngl` больше 0 и что llama.cpp собрана с CUDA. Запустите `nvidia-smi` во время генерации – должна быть загрузка GPU.&lt;br /&gt;
&lt;br /&gt;
3. Модель выдаёт бессвязный текст вместо кода. Вы скачали не ту версию. OmniCoder – модель, дообученная именно на код. Убедитесь, что это не базовая общая LLM. Также проверьте параметры `--temp` – если она выше 0.7, модель начнёт «сочинять».&lt;br /&gt;
&lt;br /&gt;
4. Ошибка «Illegal instruction» при запуске. Проблема совместимости CPU. Собирайте llama.cpp с флагом `-march=native` или, если используете Docker, образ должен быть собран для вашей архитектуры. Чаще встречается на старых процессорах.&lt;br /&gt;
&lt;br /&gt;
А что с альтернативами? Краткий обзор на 2026 год&lt;br /&gt;
Opencode + GLM-5-9B: мощная комбинация для интерактивного выполнения кода (модель может запускать код в песочнице и исправлять ошибки). Но её минимальные требования – 10 ГБ VRAM для комфортной работы, и она менее стабильна в режиме offload. Если у вас есть запас по памяти – стоит попробовать.&lt;br /&gt;
&lt;br /&gt;
DeepSeek-Coder-7B: отличная модель, но на март 2026 года уже немного устарела по сравнению с оптимизациями в OmniCoder. Запускается легко, но качество кода в сложных задачах проседает.&lt;br /&gt;
&lt;br /&gt;
Если у вас совсем мало ОЗУ (16 ГБ), смотрите в сторону моделей на 7 миллиардов параметров с квантованием Q4_K_M. Они поместятся полностью в VRAM 8 ГБ карты, но и возможностей у них меньше.&lt;br /&gt;
&lt;br /&gt;
Гонка за параметрами бессмысленна на слабом железе. Важнее эффективность и специализация. OmniCoder-9B в связке с правильно собранным llama.cpp даёт максимальный результат на ограниченных ресурсах. Это не игрушка, а рабочий инструмент, который окупается за неделю активного использования.&lt;br /&gt;
&lt;br /&gt;
И последний совет: не зацикливайтесь на одной модели. Раз в месяц проверяйте Hugging Face на предмет новых квантований или оптимизированных версий. Мир локальных LLM движется не так быстро, как корпоративный, но движется. И теперь вы знаете, как заставить его работать на себе, а не против.&lt;br /&gt;
&lt;br /&gt;
==Источники==&lt;br /&gt;
* [https://ai-manual.ru/article/luchshaya-sborka-dlya-lokalnogo-ii-na-slabom-zheleze-omnicoder-9b-llamacpp-i-32-gb-ozu/ Лучшая сборка для локального ИИ на слабом железе: OmniCoder-9B, llama.cpp и 32 ГБ ОЗУ]&lt;br /&gt;
* [https://github.com/marselcomp/aiguide Запуск нейросетей на слабом ПК — реально!]&lt;br /&gt;
* [https://habr.com/ru/companies/bothub/articles/1019314/ Топ локальных нейросетей 2026: полный суверенитет без интернета]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=%D0%9B%D1%83%D1%87%D1%88%D0%B0%D1%8F_%D1%81%D0%B1%D0%BE%D1%80%D0%BA%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%BB%D0%BE%D0%BA%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D0%B3%D0%BE_%D0%98%D0%98_%D0%BD%D0%B0_%D1%81%D0%BB%D0%B0%D0%B1%D0%BE%D0%BC_%D0%B6%D0%B5%D0%BB%D0%B5%D0%B7%D0%B5:_OmniCoder-9B,_llama.cpp_%D0%B8_32_%D0%93%D0%91_%D0%9E%D0%97%D0%A3&amp;diff=4665</id>
		<title>Лучшая сборка для локального ИИ на слабом железе: OmniCoder-9B, llama.cpp и 32 ГБ ОЗУ</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=%D0%9B%D1%83%D1%87%D1%88%D0%B0%D1%8F_%D1%81%D0%B1%D0%BE%D1%80%D0%BA%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%BB%D0%BE%D0%BA%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D0%B3%D0%BE_%D0%98%D0%98_%D0%BD%D0%B0_%D1%81%D0%BB%D0%B0%D0%B1%D0%BE%D0%BC_%D0%B6%D0%B5%D0%BB%D0%B5%D0%B7%D0%B5:_OmniCoder-9B,_llama.cpp_%D0%B8_32_%D0%93%D0%91_%D0%9E%D0%97%D0%A3&amp;diff=4665"/>
		<updated>2026-04-15T18:35:17Z</updated>

		<summary type="html">&lt;p&gt;Vix: /* Источники */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Вводная==&lt;br /&gt;
'''Полное руководство по запуску OmniCoder-9B с llama.cpp на слабом железе.'''&amp;lt;br&amp;gt;&lt;br /&gt;
'''Квантование Q4_K_M, настройка CUDA, тесты скорости. Ежедневный кодинг без облачных затрат.'''&amp;lt;br&amp;gt;&lt;br /&gt;
* Когда 8 ГБ видеопамяти должно хватить на всё.&lt;br /&gt;
Вы купили RTX 3070 пару лет назад, и она отлично тянула игры. Теперь вы хотите запустить локальную нейросеть для помощи в кодинге, но каждая модель требует минимум 24 ГБ VRAM. Ваши 8 ГБ – шутка. Вы скачиваете какую-то 7B-модель, а она выдаёт код, который выглядит так, словно его писал студент после трёх бессонных ночей. Знакомая ситуация?&lt;br /&gt;
&lt;br /&gt;
Проблема не в вас. Проблема в том, что большинство гайдов написано для гиков с RTX 4090 и 64 ГБ оперативки. Они могут запустить [https://ai-manual.ru/article/kak-zapustit-llama-70b-lokalno-na-svoyom-kompyutere-poshagovoe-rukovodstvo-dlya-novichkov/  Llama 70B] и не моргнуть глазом. У нас же другие реалии.&lt;br /&gt;
&lt;br /&gt;
* Решение существует. И оно не требует покупки нового железа или продажи почки для облачных кредитов. Всё упирается в три компонента: правильная модель, правильный движок и правильная настройка. На март 2026 года лучший баланс для разработчика с ограниченными ресурсами – это связка OmniCoder-9B, llama.cpp с CUDA и квантование Q4_K_M.&lt;br /&gt;
&lt;br /&gt;
 Забудьте про обещания «запустить что угодно на чём угодно». Речь идёт о рабочем инструменте для ежедневного использования, а не демо на один раз. Скорость генерации должна быть комфортной, а качество кода – приемлемым для реальных задач.&lt;br /&gt;
&lt;br /&gt;
* Почему именно эта тройка? Разбор без маркетинга.&lt;br /&gt;
OmniCoder-9B – не самая новая, но самая выверенная модель для кодинга в своём классе на 2026 год. Её создатели не гнались за параметрами, а оптимизировали архитектуру именно под понимание и генерацию кода. В отличие от общих моделей, она реже «галлюцинирует» названиями функций и лучше понимает контекст.&lt;br /&gt;
&lt;br /&gt;
* llama.cpp – де-факто стандарт для запуска LLM на потребительском железе. Его последние версии (на момент написания – ветка 2.5.x) сделали огромный скачок в эффективности использования CUDA, особенно для карт с 8 ГБ памяти. Сборка [https://ai-manual.ru/article/sborka-llamacpp-ne-dlya-vseh-kak-zastavit-ego-letat-na-tvoyom-zheleze/ llama.cpp] теперь умеет грациозно работать с смешанной загрузкой (GPU + RAM), что критично для нас.&lt;br /&gt;
&lt;br /&gt;
* Квантование Q4_K_M – золотая середина. Более агрессивные квантования (Q2_K, Q3_K) сильно бьют по качеству, особенно в логических рассуждениях. Менее агрессивные (Q5_K_M, Q6_K) съедают слишком много памяти. Q4_K_M сжимает модель примерно до 5.5 ГБ, оставляя ей достаточно «интеллекта» для решения нетривиальных задач.&lt;br /&gt;
&lt;br /&gt;
 Альтернатива? Конечно, есть. Например, связка OpenCode Interpreter с GLM-5-9B, которая показывает хорошие результаты в интерактивном выполнении кода. Но её требования к памяти и стабильность работы в марте 2026 года всё ещё оставляют желать лучшего для ежедневной работы на слабом железе.&lt;br /&gt;
==Подготовка поля боя: что нужно сделать до загрузки модели==&lt;br /&gt;
Первая ошибка – скачать всё подряд и надеяться, что заработает. Не заработает. Нам нужна чистая система, правильные драйверы и освобождённая память.&lt;br /&gt;
&lt;br /&gt;
1&lt;br /&gt;
Очистка системы от цифрового мусора&lt;br /&gt;
Закройте Chrome с 50 вкладками. Серьёзно. Каждая вкладка – это сотни мегабайт оперативки, которая нам позарез нужна для offload-а слоёв модели из VRAM в RAM. Если у вас 32 ГБ ОЗУ, перед запуском должно быть свободно минимум 18-20 ГБ. Проверьте фоновые процессы. Выгрузите всё, что не нужно.&lt;br /&gt;
&lt;br /&gt;
2&lt;br /&gt;
Установка самых свежих драйверов и CUDA&lt;br /&gt;
На март 2026 года стабильная ветка CUDA – это 12.6. Драйверы NVIDIA должны быть не старше февраля 2026. Да, иногда новые драйверы ломают совместимость, но в случае с llama.cpp разработчики быстро выпускают фиксы. Старые драйверы гарантированно дадут падение производительности или ошибки компиляции.&lt;br /&gt;
&lt;br /&gt;
# Проверяем версию драйвера&lt;br /&gt;
nvidia-smi&lt;br /&gt;
# Ожидаем что-то вроде:&lt;br /&gt;
# Driver Version: 555.xx.xx&lt;br /&gt;
# CUDA Version: 12.6&lt;br /&gt;
Если версия CUDA не указана или старая, качаем с официального сайта NVIDIA. Не через пакетный менеджер, если вы не уверены в его настройках. Прямая загрузка – ваш друг.&lt;br /&gt;
&lt;br /&gt;
Не пытайтесь установить CUDA Toolkit через apt-get на Ubuntu без чёткого понимания репозиториев. В 90% случаев вы получите конфликт версий, и сборка llama.cpp сломается с невнятной ошибкой про «не найден cudart». Лучший способ – локальный установщик от NVIDIA.&lt;br /&gt;
&lt;br /&gt;
Сборка llama.cpp с CUDA: не пропустите эти флаги&lt;br /&gt;
Качаем исходники. Никаких готовых бинарников – они собраны с универсальными настройками, которые не раскроют потенциал вашей карты.&lt;br /&gt;
&lt;br /&gt;
git clone https://github.com/ggerganov/llama.cpp&lt;br /&gt;
cd llama.cpp&lt;br /&gt;
# Переключаемся на последнюю стабильную ветку (актуально на март 2026)&lt;br /&gt;
git checkout release/2.5&lt;br /&gt;
Теперь самое важное – компиляция. Классическая ошибка: сделать просто `make`. Это соберёт CPU-версию, которая будет работать в 20 раз медленнее. Нам нужна сборка с поддержкой CUDA и, что критично, со слоёвым offload-ом.&lt;br /&gt;
&lt;br /&gt;
# Очищаем предыдущие сборки (на всякий случай)&lt;br /&gt;
make clean&lt;br /&gt;
&lt;br /&gt;
# Ключевая команда. Флаги:&lt;br /&gt;
# LLAMA_CUDA=1 - включаем CUDA&lt;br /&gt;
# LLAMA_CUDA_FORCE_DMMV=1 - принудительно используем более быстрые матричные операции для архитектур Ampere (RTX 3070) и новее&lt;br /&gt;
# LLAMA_CUDA_MMQ=1 - включаем оптимизированные очереди матриц (существенно для скорости)&lt;br /&gt;
# LLAMA_CUDA_F16=1 - работа с половинной точностью (экономия памяти без большого ущерба)&lt;br /&gt;
&lt;br /&gt;
make LLAMA_CUDA=1 LLAMA_CUDA_FORCE_DMMV=1 LLAMA_CUDA_MMQ=1 LLAMA_CUDA_F16=1 -j$(nproc)&lt;br /&gt;
Флаг `-j$(nproc)` использует все ядра процессора для компиляции, это быстрее. После успешной сборки в папке появится бинарник `main` (или `main.exe` на Windows). Это наш рабочий инструмент.&lt;br /&gt;
&lt;br /&gt;
Загрузка и квантование OmniCoder-9B: где брать и как сжать&lt;br /&gt;
Оригинальная полная версия OmniCoder-9B весит около 18 ГБ в формате FP16. Нам это не подходит. Идём на Hugging Face и ищем квантованные версии. Ключевые слова: «OmniCoder-9B-GGUF». GGUF – это формат, который понимает llama.cpp.&lt;br /&gt;
&lt;br /&gt;
Если готовой версии Q4_K_M нет (что маловероятно к 2026 году), качаем оригинальную модель и квантуем сами. Это долго, но просто.&lt;br /&gt;
&lt;br /&gt;
# Предположим, скачали модель в папку ./models&lt;br /&gt;
# Конвертируем в формат GGUF (если скачали в формате PyTorch/Safetensors)&lt;br /&gt;
python3 convert.py ./models/OmniCoder-9B --outtype f16 --outfile ./models/omnicoder-9b.f16.gguf&lt;br /&gt;
&lt;br /&gt;
# Теперь квантуем до Q4_K_M&lt;br /&gt;
./quantize ./models/omnicoder-9b.f16.gguf ./models/omnicoder-9b.Q4_K_M.gguf Q4_K_M&lt;br /&gt;
Процесс квантования может занять 10-30 минут. На выходе получите файл весом ~5.5 ГБ. Именно его мы и будем запускать.&lt;br /&gt;
&lt;br /&gt;
💡&lt;br /&gt;
Где брать модели? Платформа Hugging Face – основной хаб. Для конкретно этой модели ищите репозиторий от создателей или сообщества «TheBloke», который славится качественными квантованиями. Прямые ссылки имеют свойство умирать, поэтому ищите по названию.&lt;br /&gt;
==Запуск и настройка: магия флагов командной строки==&lt;br /&gt;
Вот момент истины. Запускаем модель с правильными параметрами, чтобы она поместилась в память и работала быстро.&lt;br /&gt;
&lt;br /&gt;
./main -m ./models/omnicoder-9b.Q4_K_M.gguf \&lt;br /&gt;
  -n 512 \&lt;br /&gt;
  -t 10 \&lt;br /&gt;
  -ngl 33 \&lt;br /&gt;
  -c 8192 \&lt;br /&gt;
  --temp 0.2 \&lt;br /&gt;
  --top-p 0.95 \&lt;br /&gt;
  -p &amp;quot;Код на Python для быстрой сортировки:&amp;quot;&lt;br /&gt;
Разберём каждый флаг, потому что без понимания вы будете тыкать наугад.&lt;br /&gt;
&lt;br /&gt;
-n 512: генерируем 512 токенов. Достаточно для небольшой функции или блока кода.&lt;br /&gt;
-t 10: используем 10 CPU-потоков для обработки тех слоёв, которые не влезли в VRAM. Оптимально для большинства 6-8 ядерных процессоров.&lt;br /&gt;
-ngl 33: САМЫЙ ВАЖНЫЙ ПАРАМЕТР. Количество слоёв, которые загружаем в VRAM. OmniCoder-9B имеет около 40-45 слоёв. 33 – это примерно 75% модели. Они будут обрабатываться на GPU со скоростью света. Остальные слои (offload) уйдут в оперативку и будут считаться на CPU. Баланс, который позволяет уместить модель в 8 ГБ VRAM и не превратить генерацию в слайд-шоу.&lt;br /&gt;
-c 8192: размер контекста. 8K – хороший компромисс для работы с несколькими файлами. Можно и больше, но помните: каждый токен контекста съедает память. Если нужен огромный контекст, изучите технику SSD offload.&lt;br /&gt;
--temp 0.2, --top-p 0.95: параметры «творчества». Для кодинга нужна низкая температура (больше детерминизма) и высокий top-p (для разнообразия, но без бреда).&lt;br /&gt;
После запуска вы увидите, как модель загружает слои в VRAM и RAM. Если всё настроено верно, потребление VRAM будет на уровне 6.5-7.5 ГБ, а оперативки – 12-15 ГБ. Генерация 512 токенов должна занимать 20-40 секунд. Это не мгновенно, но вполне терпимо для обдумывания задачи.&lt;br /&gt;
&lt;br /&gt;
==Интеграция в рабочий процесс: не останавливайтесь на консоли==&lt;br /&gt;
Работать через консольный ввод – это каменный век. Нам нужна интеграция в IDE или хотя бы удобный интерфейс.&lt;br /&gt;
&lt;br /&gt;
Вариант 1: Superpowers (или его форки 2026 года). Это локальный веб-интерфейс, который подключается к llama.cpp как бэкенд. Настраивается за 5 минут, даёт удобный чат, историю, возможность загружать файлы в контекст.&lt;br /&gt;
&lt;br /&gt;
Вариант 2: Плагин для VSCode, например, Continue.dev или его аналоги, которые умеют работать с локальными LLM через API. Запускаем llama.cpp в server mode:&lt;br /&gt;
&lt;br /&gt;
./server -m ./models/omnicoder-9b.Q4_K_M.gguf -c 8192 -ngl 33 --host 127.0.0.1 --port 8080&lt;br /&gt;
И настраиваем плагин на этот адрес. Теперь автодополнение и чат с ИИ прямо в редакторе. Без облаков, без подписок.&lt;br /&gt;
&lt;br /&gt;
Не используйте стандартный `--server` флаг из старых версий llama.cpp. В версиях 2.5.x его заменил отдельный бинарник `server`, который собирается вместе с `main`. Если его нет, пересоберите проект с теми же флагами.&lt;br /&gt;
&lt;br /&gt;
Что делать, если всё падает? Типичные ошибки и их лечение&lt;br /&gt;
1. «CUDA out of memory» сразу после запуска. Слишком большое значение `-ngl`. Уменьшайте на 5-10, пока не заработает. Для RTX 3070 8GB стартовая точка – 28-33 слоя.&lt;br /&gt;
&lt;br /&gt;
2. Генерация тормозит (меньше 1 токена в секунду). Скорее всего, модель работает почти полностью на CPU. Проверьте, что `-ngl` больше 0 и что llama.cpp собрана с CUDA. Запустите `nvidia-smi` во время генерации – должна быть загрузка GPU.&lt;br /&gt;
&lt;br /&gt;
3. Модель выдаёт бессвязный текст вместо кода. Вы скачали не ту версию. OmniCoder – модель, дообученная именно на код. Убедитесь, что это не базовая общая LLM. Также проверьте параметры `--temp` – если она выше 0.7, модель начнёт «сочинять».&lt;br /&gt;
&lt;br /&gt;
4. Ошибка «Illegal instruction» при запуске. Проблема совместимости CPU. Собирайте llama.cpp с флагом `-march=native` или, если используете Docker, образ должен быть собран для вашей архитектуры. Чаще встречается на старых процессорах.&lt;br /&gt;
&lt;br /&gt;
А что с альтернативами? Краткий обзор на 2026 год&lt;br /&gt;
Opencode + GLM-5-9B: мощная комбинация для интерактивного выполнения кода (модель может запускать код в песочнице и исправлять ошибки). Но её минимальные требования – 10 ГБ VRAM для комфортной работы, и она менее стабильна в режиме offload. Если у вас есть запас по памяти – стоит попробовать.&lt;br /&gt;
&lt;br /&gt;
DeepSeek-Coder-7B: отличная модель, но на март 2026 года уже немного устарела по сравнению с оптимизациями в OmniCoder. Запускается легко, но качество кода в сложных задачах проседает.&lt;br /&gt;
&lt;br /&gt;
Если у вас совсем мало ОЗУ (16 ГБ), смотрите в сторону моделей на 7 миллиардов параметров с квантованием Q4_K_M. Они поместятся полностью в VRAM 8 ГБ карты, но и возможностей у них меньше.&lt;br /&gt;
&lt;br /&gt;
Гонка за параметрами бессмысленна на слабом железе. Важнее эффективность и специализация. OmniCoder-9B в связке с правильно собранным llama.cpp даёт максимальный результат на ограниченных ресурсах. Это не игрушка, а рабочий инструмент, который окупается за неделю активного использования.&lt;br /&gt;
&lt;br /&gt;
И последний совет: не зацикливайтесь на одной модели. Раз в месяц проверяйте Hugging Face на предмет новых квантований или оптимизированных версий. Мир локальных LLM движется не так быстро, как корпоративный, но движется. И теперь вы знаете, как заставить его работать на себе, а не против.&lt;br /&gt;
&lt;br /&gt;
==Источники==&lt;br /&gt;
* [https://ai-manual.ru/article/luchshaya-sborka-dlya-lokalnogo-ii-na-slabom-zheleze-omnicoder-9b-llamacpp-i-32-gb-ozu/ Лучшая сборка для локального ИИ на слабом железе: OmniCoder-9B, llama.cpp и 32 ГБ ОЗУ]&lt;br /&gt;
* [https://github.com/marselcomp/aiguide Запуск нейросетей на слабом ПК — реально!]&lt;br /&gt;
* [https://habr.com/ru/companies/bothub/articles/1019314/ Топ локальных нейросетей 2026: полный суверенитет без интернета]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=%D0%9B%D1%83%D1%87%D1%88%D0%B0%D1%8F_%D1%81%D0%B1%D0%BE%D1%80%D0%BA%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%BB%D0%BE%D0%BA%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D0%B3%D0%BE_%D0%98%D0%98_%D0%BD%D0%B0_%D1%81%D0%BB%D0%B0%D0%B1%D0%BE%D0%BC_%D0%B6%D0%B5%D0%BB%D0%B5%D0%B7%D0%B5:_OmniCoder-9B,_llama.cpp_%D0%B8_32_%D0%93%D0%91_%D0%9E%D0%97%D0%A3&amp;diff=4664</id>
		<title>Лучшая сборка для локального ИИ на слабом железе: OmniCoder-9B, llama.cpp и 32 ГБ ОЗУ</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=%D0%9B%D1%83%D1%87%D1%88%D0%B0%D1%8F_%D1%81%D0%B1%D0%BE%D1%80%D0%BA%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%BB%D0%BE%D0%BA%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D0%B3%D0%BE_%D0%98%D0%98_%D0%BD%D0%B0_%D1%81%D0%BB%D0%B0%D0%B1%D0%BE%D0%BC_%D0%B6%D0%B5%D0%BB%D0%B5%D0%B7%D0%B5:_OmniCoder-9B,_llama.cpp_%D0%B8_32_%D0%93%D0%91_%D0%9E%D0%97%D0%A3&amp;diff=4664"/>
		<updated>2026-04-15T18:32:00Z</updated>

		<summary type="html">&lt;p&gt;Vix: /* Подготовка поля боя: что нужно сделать до загрузки модели */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Вводная==&lt;br /&gt;
'''Полное руководство по запуску OmniCoder-9B с llama.cpp на слабом железе.'''&amp;lt;br&amp;gt;&lt;br /&gt;
'''Квантование Q4_K_M, настройка CUDA, тесты скорости. Ежедневный кодинг без облачных затрат.'''&amp;lt;br&amp;gt;&lt;br /&gt;
* Когда 8 ГБ видеопамяти должно хватить на всё.&lt;br /&gt;
Вы купили RTX 3070 пару лет назад, и она отлично тянула игры. Теперь вы хотите запустить локальную нейросеть для помощи в кодинге, но каждая модель требует минимум 24 ГБ VRAM. Ваши 8 ГБ – шутка. Вы скачиваете какую-то 7B-модель, а она выдаёт код, который выглядит так, словно его писал студент после трёх бессонных ночей. Знакомая ситуация?&lt;br /&gt;
&lt;br /&gt;
Проблема не в вас. Проблема в том, что большинство гайдов написано для гиков с RTX 4090 и 64 ГБ оперативки. Они могут запустить [https://ai-manual.ru/article/kak-zapustit-llama-70b-lokalno-na-svoyom-kompyutere-poshagovoe-rukovodstvo-dlya-novichkov/  Llama 70B] и не моргнуть глазом. У нас же другие реалии.&lt;br /&gt;
&lt;br /&gt;
* Решение существует. И оно не требует покупки нового железа или продажи почки для облачных кредитов. Всё упирается в три компонента: правильная модель, правильный движок и правильная настройка. На март 2026 года лучший баланс для разработчика с ограниченными ресурсами – это связка OmniCoder-9B, llama.cpp с CUDA и квантование Q4_K_M.&lt;br /&gt;
&lt;br /&gt;
 Забудьте про обещания «запустить что угодно на чём угодно». Речь идёт о рабочем инструменте для ежедневного использования, а не демо на один раз. Скорость генерации должна быть комфортной, а качество кода – приемлемым для реальных задач.&lt;br /&gt;
&lt;br /&gt;
* Почему именно эта тройка? Разбор без маркетинга.&lt;br /&gt;
OmniCoder-9B – не самая новая, но самая выверенная модель для кодинга в своём классе на 2026 год. Её создатели не гнались за параметрами, а оптимизировали архитектуру именно под понимание и генерацию кода. В отличие от общих моделей, она реже «галлюцинирует» названиями функций и лучше понимает контекст.&lt;br /&gt;
&lt;br /&gt;
* llama.cpp – де-факто стандарт для запуска LLM на потребительском железе. Его последние версии (на момент написания – ветка 2.5.x) сделали огромный скачок в эффективности использования CUDA, особенно для карт с 8 ГБ памяти. Сборка [https://ai-manual.ru/article/sborka-llamacpp-ne-dlya-vseh-kak-zastavit-ego-letat-na-tvoyom-zheleze/ llama.cpp] теперь умеет грациозно работать с смешанной загрузкой (GPU + RAM), что критично для нас.&lt;br /&gt;
&lt;br /&gt;
* Квантование Q4_K_M – золотая середина. Более агрессивные квантования (Q2_K, Q3_K) сильно бьют по качеству, особенно в логических рассуждениях. Менее агрессивные (Q5_K_M, Q6_K) съедают слишком много памяти. Q4_K_M сжимает модель примерно до 5.5 ГБ, оставляя ей достаточно «интеллекта» для решения нетривиальных задач.&lt;br /&gt;
&lt;br /&gt;
 Альтернатива? Конечно, есть. Например, связка OpenCode Interpreter с GLM-5-9B, которая показывает хорошие результаты в интерактивном выполнении кода. Но её требования к памяти и стабильность работы в марте 2026 года всё ещё оставляют желать лучшего для ежедневной работы на слабом железе.&lt;br /&gt;
==Подготовка поля боя: что нужно сделать до загрузки модели==&lt;br /&gt;
Первая ошибка – скачать всё подряд и надеяться, что заработает. Не заработает. Нам нужна чистая система, правильные драйверы и освобождённая память.&lt;br /&gt;
&lt;br /&gt;
1&lt;br /&gt;
Очистка системы от цифрового мусора&lt;br /&gt;
Закройте Chrome с 50 вкладками. Серьёзно. Каждая вкладка – это сотни мегабайт оперативки, которая нам позарез нужна для offload-а слоёв модели из VRAM в RAM. Если у вас 32 ГБ ОЗУ, перед запуском должно быть свободно минимум 18-20 ГБ. Проверьте фоновые процессы. Выгрузите всё, что не нужно.&lt;br /&gt;
&lt;br /&gt;
2&lt;br /&gt;
Установка самых свежих драйверов и CUDA&lt;br /&gt;
На март 2026 года стабильная ветка CUDA – это 12.6. Драйверы NVIDIA должны быть не старше февраля 2026. Да, иногда новые драйверы ломают совместимость, но в случае с llama.cpp разработчики быстро выпускают фиксы. Старые драйверы гарантированно дадут падение производительности или ошибки компиляции.&lt;br /&gt;
&lt;br /&gt;
# Проверяем версию драйвера&lt;br /&gt;
nvidia-smi&lt;br /&gt;
# Ожидаем что-то вроде:&lt;br /&gt;
# Driver Version: 555.xx.xx&lt;br /&gt;
# CUDA Version: 12.6&lt;br /&gt;
Если версия CUDA не указана или старая, качаем с официального сайта NVIDIA. Не через пакетный менеджер, если вы не уверены в его настройках. Прямая загрузка – ваш друг.&lt;br /&gt;
&lt;br /&gt;
Не пытайтесь установить CUDA Toolkit через apt-get на Ubuntu без чёткого понимания репозиториев. В 90% случаев вы получите конфликт версий, и сборка llama.cpp сломается с невнятной ошибкой про «не найден cudart». Лучший способ – локальный установщик от NVIDIA.&lt;br /&gt;
&lt;br /&gt;
Сборка llama.cpp с CUDA: не пропустите эти флаги&lt;br /&gt;
Качаем исходники. Никаких готовых бинарников – они собраны с универсальными настройками, которые не раскроют потенциал вашей карты.&lt;br /&gt;
&lt;br /&gt;
git clone https://github.com/ggerganov/llama.cpp&lt;br /&gt;
cd llama.cpp&lt;br /&gt;
# Переключаемся на последнюю стабильную ветку (актуально на март 2026)&lt;br /&gt;
git checkout release/2.5&lt;br /&gt;
Теперь самое важное – компиляция. Классическая ошибка: сделать просто `make`. Это соберёт CPU-версию, которая будет работать в 20 раз медленнее. Нам нужна сборка с поддержкой CUDA и, что критично, со слоёвым offload-ом.&lt;br /&gt;
&lt;br /&gt;
# Очищаем предыдущие сборки (на всякий случай)&lt;br /&gt;
make clean&lt;br /&gt;
&lt;br /&gt;
# Ключевая команда. Флаги:&lt;br /&gt;
# LLAMA_CUDA=1 - включаем CUDA&lt;br /&gt;
# LLAMA_CUDA_FORCE_DMMV=1 - принудительно используем более быстрые матричные операции для архитектур Ampere (RTX 3070) и новее&lt;br /&gt;
# LLAMA_CUDA_MMQ=1 - включаем оптимизированные очереди матриц (существенно для скорости)&lt;br /&gt;
# LLAMA_CUDA_F16=1 - работа с половинной точностью (экономия памяти без большого ущерба)&lt;br /&gt;
&lt;br /&gt;
make LLAMA_CUDA=1 LLAMA_CUDA_FORCE_DMMV=1 LLAMA_CUDA_MMQ=1 LLAMA_CUDA_F16=1 -j$(nproc)&lt;br /&gt;
Флаг `-j$(nproc)` использует все ядра процессора для компиляции, это быстрее. После успешной сборки в папке появится бинарник `main` (или `main.exe` на Windows). Это наш рабочий инструмент.&lt;br /&gt;
&lt;br /&gt;
Загрузка и квантование OmniCoder-9B: где брать и как сжать&lt;br /&gt;
Оригинальная полная версия OmniCoder-9B весит около 18 ГБ в формате FP16. Нам это не подходит. Идём на Hugging Face и ищем квантованные версии. Ключевые слова: «OmniCoder-9B-GGUF». GGUF – это формат, который понимает llama.cpp.&lt;br /&gt;
&lt;br /&gt;
Если готовой версии Q4_K_M нет (что маловероятно к 2026 году), качаем оригинальную модель и квантуем сами. Это долго, но просто.&lt;br /&gt;
&lt;br /&gt;
# Предположим, скачали модель в папку ./models&lt;br /&gt;
# Конвертируем в формат GGUF (если скачали в формате PyTorch/Safetensors)&lt;br /&gt;
python3 convert.py ./models/OmniCoder-9B --outtype f16 --outfile ./models/omnicoder-9b.f16.gguf&lt;br /&gt;
&lt;br /&gt;
# Теперь квантуем до Q4_K_M&lt;br /&gt;
./quantize ./models/omnicoder-9b.f16.gguf ./models/omnicoder-9b.Q4_K_M.gguf Q4_K_M&lt;br /&gt;
Процесс квантования может занять 10-30 минут. На выходе получите файл весом ~5.5 ГБ. Именно его мы и будем запускать.&lt;br /&gt;
&lt;br /&gt;
💡&lt;br /&gt;
Где брать модели? Платформа Hugging Face – основной хаб. Для конкретно этой модели ищите репозиторий от создателей или сообщества «TheBloke», который славится качественными квантованиями. Прямые ссылки имеют свойство умирать, поэтому ищите по названию.&lt;br /&gt;
==Запуск и настройка: магия флагов командной строки==&lt;br /&gt;
Вот момент истины. Запускаем модель с правильными параметрами, чтобы она поместилась в память и работала быстро.&lt;br /&gt;
&lt;br /&gt;
./main -m ./models/omnicoder-9b.Q4_K_M.gguf \&lt;br /&gt;
  -n 512 \&lt;br /&gt;
  -t 10 \&lt;br /&gt;
  -ngl 33 \&lt;br /&gt;
  -c 8192 \&lt;br /&gt;
  --temp 0.2 \&lt;br /&gt;
  --top-p 0.95 \&lt;br /&gt;
  -p &amp;quot;Код на Python для быстрой сортировки:&amp;quot;&lt;br /&gt;
Разберём каждый флаг, потому что без понимания вы будете тыкать наугад.&lt;br /&gt;
&lt;br /&gt;
-n 512: генерируем 512 токенов. Достаточно для небольшой функции или блока кода.&lt;br /&gt;
-t 10: используем 10 CPU-потоков для обработки тех слоёв, которые не влезли в VRAM. Оптимально для большинства 6-8 ядерных процессоров.&lt;br /&gt;
-ngl 33: САМЫЙ ВАЖНЫЙ ПАРАМЕТР. Количество слоёв, которые загружаем в VRAM. OmniCoder-9B имеет около 40-45 слоёв. 33 – это примерно 75% модели. Они будут обрабатываться на GPU со скоростью света. Остальные слои (offload) уйдут в оперативку и будут считаться на CPU. Баланс, который позволяет уместить модель в 8 ГБ VRAM и не превратить генерацию в слайд-шоу.&lt;br /&gt;
-c 8192: размер контекста. 8K – хороший компромисс для работы с несколькими файлами. Можно и больше, но помните: каждый токен контекста съедает память. Если нужен огромный контекст, изучите технику SSD offload.&lt;br /&gt;
--temp 0.2, --top-p 0.95: параметры «творчества». Для кодинга нужна низкая температура (больше детерминизма) и высокий top-p (для разнообразия, но без бреда).&lt;br /&gt;
После запуска вы увидите, как модель загружает слои в VRAM и RAM. Если всё настроено верно, потребление VRAM будет на уровне 6.5-7.5 ГБ, а оперативки – 12-15 ГБ. Генерация 512 токенов должна занимать 20-40 секунд. Это не мгновенно, но вполне терпимо для обдумывания задачи.&lt;br /&gt;
&lt;br /&gt;
==Интеграция в рабочий процесс: не останавливайтесь на консоли==&lt;br /&gt;
Работать через консольный ввод – это каменный век. Нам нужна интеграция в IDE или хотя бы удобный интерфейс.&lt;br /&gt;
&lt;br /&gt;
Вариант 1: Superpowers (или его форки 2026 года). Это локальный веб-интерфейс, который подключается к llama.cpp как бэкенд. Настраивается за 5 минут, даёт удобный чат, историю, возможность загружать файлы в контекст.&lt;br /&gt;
&lt;br /&gt;
Вариант 2: Плагин для VSCode, например, Continue.dev или его аналоги, которые умеют работать с локальными LLM через API. Запускаем llama.cpp в server mode:&lt;br /&gt;
&lt;br /&gt;
./server -m ./models/omnicoder-9b.Q4_K_M.gguf -c 8192 -ngl 33 --host 127.0.0.1 --port 8080&lt;br /&gt;
И настраиваем плагин на этот адрес. Теперь автодополнение и чат с ИИ прямо в редакторе. Без облаков, без подписок.&lt;br /&gt;
&lt;br /&gt;
Не используйте стандартный `--server` флаг из старых версий llama.cpp. В версиях 2.5.x его заменил отдельный бинарник `server`, который собирается вместе с `main`. Если его нет, пересоберите проект с теми же флагами.&lt;br /&gt;
&lt;br /&gt;
Что делать, если всё падает? Типичные ошибки и их лечение&lt;br /&gt;
1. «CUDA out of memory» сразу после запуска. Слишком большое значение `-ngl`. Уменьшайте на 5-10, пока не заработает. Для RTX 3070 8GB стартовая точка – 28-33 слоя.&lt;br /&gt;
&lt;br /&gt;
2. Генерация тормозит (меньше 1 токена в секунду). Скорее всего, модель работает почти полностью на CPU. Проверьте, что `-ngl` больше 0 и что llama.cpp собрана с CUDA. Запустите `nvidia-smi` во время генерации – должна быть загрузка GPU.&lt;br /&gt;
&lt;br /&gt;
3. Модель выдаёт бессвязный текст вместо кода. Вы скачали не ту версию. OmniCoder – модель, дообученная именно на код. Убедитесь, что это не базовая общая LLM. Также проверьте параметры `--temp` – если она выше 0.7, модель начнёт «сочинять».&lt;br /&gt;
&lt;br /&gt;
4. Ошибка «Illegal instruction» при запуске. Проблема совместимости CPU. Собирайте llama.cpp с флагом `-march=native` или, если используете Docker, образ должен быть собран для вашей архитектуры. Чаще встречается на старых процессорах.&lt;br /&gt;
&lt;br /&gt;
А что с альтернативами? Краткий обзор на 2026 год&lt;br /&gt;
Opencode + GLM-5-9B: мощная комбинация для интерактивного выполнения кода (модель может запускать код в песочнице и исправлять ошибки). Но её минимальные требования – 10 ГБ VRAM для комфортной работы, и она менее стабильна в режиме offload. Если у вас есть запас по памяти – стоит попробовать.&lt;br /&gt;
&lt;br /&gt;
DeepSeek-Coder-7B: отличная модель, но на март 2026 года уже немного устарела по сравнению с оптимизациями в OmniCoder. Запускается легко, но качество кода в сложных задачах проседает.&lt;br /&gt;
&lt;br /&gt;
Если у вас совсем мало ОЗУ (16 ГБ), смотрите в сторону моделей на 7 миллиардов параметров с квантованием Q4_K_M. Они поместятся полностью в VRAM 8 ГБ карты, но и возможностей у них меньше.&lt;br /&gt;
&lt;br /&gt;
Гонка за параметрами бессмысленна на слабом железе. Важнее эффективность и специализация. OmniCoder-9B в связке с правильно собранным llama.cpp даёт максимальный результат на ограниченных ресурсах. Это не игрушка, а рабочий инструмент, который окупается за неделю активного использования.&lt;br /&gt;
&lt;br /&gt;
И последний совет: не зацикливайтесь на одной модели. Раз в месяц проверяйте Hugging Face на предмет новых квантований или оптимизированных версий. Мир локальных LLM движется не так быстро, как корпоративный, но движется. И теперь вы знаете, как заставить его работать на себе, а не против.&lt;br /&gt;
&lt;br /&gt;
==Источники==&lt;br /&gt;
* [https://ai-manual.ru/article/luchshaya-sborka-dlya-lokalnogo-ii-na-slabom-zheleze-omnicoder-9b-llamacpp-i-32-gb-ozu/ Лучшая сборка для локального ИИ на слабом железе: OmniCoder-9B, llama.cpp и 32 ГБ ОЗУ]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=%D0%9B%D1%83%D1%87%D1%88%D0%B0%D1%8F_%D1%81%D0%B1%D0%BE%D1%80%D0%BA%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%BB%D0%BE%D0%BA%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D0%B3%D0%BE_%D0%98%D0%98_%D0%BD%D0%B0_%D1%81%D0%BB%D0%B0%D0%B1%D0%BE%D0%BC_%D0%B6%D0%B5%D0%BB%D0%B5%D0%B7%D0%B5:_OmniCoder-9B,_llama.cpp_%D0%B8_32_%D0%93%D0%91_%D0%9E%D0%97%D0%A3&amp;diff=4663</id>
		<title>Лучшая сборка для локального ИИ на слабом железе: OmniCoder-9B, llama.cpp и 32 ГБ ОЗУ</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=%D0%9B%D1%83%D1%87%D1%88%D0%B0%D1%8F_%D1%81%D0%B1%D0%BE%D1%80%D0%BA%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%BB%D0%BE%D0%BA%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D0%B3%D0%BE_%D0%98%D0%98_%D0%BD%D0%B0_%D1%81%D0%BB%D0%B0%D0%B1%D0%BE%D0%BC_%D0%B6%D0%B5%D0%BB%D0%B5%D0%B7%D0%B5:_OmniCoder-9B,_llama.cpp_%D0%B8_32_%D0%93%D0%91_%D0%9E%D0%97%D0%A3&amp;diff=4663"/>
		<updated>2026-04-15T18:21:05Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==Вводная==&lt;br /&gt;
'''Полное руководство по запуску OmniCoder-9B с llama.cpp на слабом железе.'''&amp;lt;br&amp;gt;&lt;br /&gt;
'''Квантование Q4_K_M, настройка CUDA, тесты скорости. Ежедневный кодинг без облачных затрат.'''&amp;lt;br&amp;gt;&lt;br /&gt;
* Когда 8 ГБ видеопамяти должно хватить на всё.&lt;br /&gt;
Вы купили RTX 3070 пару лет назад, и она отлично тянула игры. Теперь вы хотите запустить локальную нейросеть для помощи в кодинге, но каждая модель требует минимум 24 ГБ VRAM. Ваши 8 ГБ – шутка. Вы скачиваете какую-то 7B-модель, а она выдаёт код, который выглядит так, словно его писал студент после трёх бессонных ночей. Знакомая ситуация?&lt;br /&gt;
&lt;br /&gt;
Проблема не в вас. Проблема в том, что большинство гайдов написано для гиков с RTX 4090 и 64 ГБ оперативки. Они могут запустить [https://ai-manual.ru/article/kak-zapustit-llama-70b-lokalno-na-svoyom-kompyutere-poshagovoe-rukovodstvo-dlya-novichkov/  Llama 70B] и не моргнуть глазом. У нас же другие реалии.&lt;br /&gt;
&lt;br /&gt;
* Решение существует. И оно не требует покупки нового железа или продажи почки для облачных кредитов. Всё упирается в три компонента: правильная модель, правильный движок и правильная настройка. На март 2026 года лучший баланс для разработчика с ограниченными ресурсами – это связка OmniCoder-9B, llama.cpp с CUDA и квантование Q4_K_M.&lt;br /&gt;
&lt;br /&gt;
 Забудьте про обещания «запустить что угодно на чём угодно». Речь идёт о рабочем инструменте для ежедневного использования, а не демо на один раз. Скорость генерации должна быть комфортной, а качество кода – приемлемым для реальных задач.&lt;br /&gt;
&lt;br /&gt;
* Почему именно эта тройка? Разбор без маркетинга.&lt;br /&gt;
OmniCoder-9B – не самая новая, но самая выверенная модель для кодинга в своём классе на 2026 год. Её создатели не гнались за параметрами, а оптимизировали архитектуру именно под понимание и генерацию кода. В отличие от общих моделей, она реже «галлюцинирует» названиями функций и лучше понимает контекст.&lt;br /&gt;
&lt;br /&gt;
* llama.cpp – де-факто стандарт для запуска LLM на потребительском железе. Его последние версии (на момент написания – ветка 2.5.x) сделали огромный скачок в эффективности использования CUDA, особенно для карт с 8 ГБ памяти. Сборка [https://ai-manual.ru/article/sborka-llamacpp-ne-dlya-vseh-kak-zastavit-ego-letat-na-tvoyom-zheleze/ llama.cpp] теперь умеет грациозно работать с смешанной загрузкой (GPU + RAM), что критично для нас.&lt;br /&gt;
&lt;br /&gt;
* Квантование Q4_K_M – золотая середина. Более агрессивные квантования (Q2_K, Q3_K) сильно бьют по качеству, особенно в логических рассуждениях. Менее агрессивные (Q5_K_M, Q6_K) съедают слишком много памяти. Q4_K_M сжимает модель примерно до 5.5 ГБ, оставляя ей достаточно «интеллекта» для решения нетривиальных задач.&lt;br /&gt;
&lt;br /&gt;
 Альтернатива? Конечно, есть. Например, связка OpenCode Interpreter с GLM-5-9B, которая показывает хорошие результаты в интерактивном выполнении кода. Но её требования к памяти и стабильность работы в марте 2026 года всё ещё оставляют желать лучшего для ежедневной работы на слабом железе.&lt;br /&gt;
==Подготовка поля боя: что нужно сделать до загрузки модели==&lt;br /&gt;
&lt;br /&gt;
==Источники==&lt;br /&gt;
* [https://ai-manual.ru/article/luchshaya-sborka-dlya-lokalnogo-ii-na-slabom-zheleze-omnicoder-9b-llamacpp-i-32-gb-ozu/ Лучшая сборка для локального ИИ на слабом железе: OmniCoder-9B, llama.cpp и 32 ГБ ОЗУ]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=%D0%9B%D1%83%D1%87%D1%88%D0%B0%D1%8F_%D1%81%D0%B1%D0%BE%D1%80%D0%BA%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%BB%D0%BE%D0%BA%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D0%B3%D0%BE_%D0%98%D0%98_%D0%BD%D0%B0_%D1%81%D0%BB%D0%B0%D0%B1%D0%BE%D0%BC_%D0%B6%D0%B5%D0%BB%D0%B5%D0%B7%D0%B5:_OmniCoder-9B,_llama.cpp_%D0%B8_32_%D0%93%D0%91_%D0%9E%D0%97%D0%A3&amp;diff=4662</id>
		<title>Лучшая сборка для локального ИИ на слабом железе: OmniCoder-9B, llama.cpp и 32 ГБ ОЗУ</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=%D0%9B%D1%83%D1%87%D1%88%D0%B0%D1%8F_%D1%81%D0%B1%D0%BE%D1%80%D0%BA%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%BB%D0%BE%D0%BA%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D0%B3%D0%BE_%D0%98%D0%98_%D0%BD%D0%B0_%D1%81%D0%BB%D0%B0%D0%B1%D0%BE%D0%BC_%D0%B6%D0%B5%D0%BB%D0%B5%D0%B7%D0%B5:_OmniCoder-9B,_llama.cpp_%D0%B8_32_%D0%93%D0%91_%D0%9E%D0%97%D0%A3&amp;diff=4662"/>
		<updated>2026-04-15T18:19:26Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==ВВОДНАЯ==&lt;br /&gt;
'''Полное руководство по запуску OmniCoder-9B с llama.cpp на слабом железе.'''&amp;lt;br&amp;gt;&lt;br /&gt;
'''Квантование Q4_K_M, настройка CUDA, тесты скорости. Ежедневный кодинг без облачных затрат.'''&amp;lt;br&amp;gt;&lt;br /&gt;
* Когда 8 ГБ видеопамяти должно хватить на всё.&lt;br /&gt;
Вы купили RTX 3070 пару лет назад, и она отлично тянула игры. Теперь вы хотите запустить локальную нейросеть для помощи в кодинге, но каждая модель требует минимум 24 ГБ VRAM. Ваши 8 ГБ – шутка. Вы скачиваете какую-то 7B-модель, а она выдаёт код, который выглядит так, словно его писал студент после трёх бессонных ночей. Знакомая ситуация?&lt;br /&gt;
&lt;br /&gt;
Проблема не в вас. Проблема в том, что большинство гайдов написано для гиков с RTX 4090 и 64 ГБ оперативки. Они могут запустить [https://ai-manual.ru/article/kak-zapustit-llama-70b-lokalno-na-svoyom-kompyutere-poshagovoe-rukovodstvo-dlya-novichkov/  Llama 70B] и не моргнуть глазом. У нас же другие реалии.&lt;br /&gt;
&lt;br /&gt;
* Решение существует. И оно не требует покупки нового железа или продажи почки для облачных кредитов. Всё упирается в три компонента: правильная модель, правильный движок и правильная настройка. На март 2026 года лучший баланс для разработчика с ограниченными ресурсами – это связка OmniCoder-9B, llama.cpp с CUDA и квантование Q4_K_M.&lt;br /&gt;
&lt;br /&gt;
 Забудьте про обещания «запустить что угодно на чём угодно». Речь идёт о рабочем инструменте для ежедневного использования, а не демо на один раз. Скорость генерации должна быть комфортной, а качество кода – приемлемым для реальных задач.&lt;br /&gt;
&lt;br /&gt;
* Почему именно эта тройка? Разбор без маркетинга.&lt;br /&gt;
OmniCoder-9B – не самая новая, но самая выверенная модель для кодинга в своём классе на 2026 год. Её создатели не гнались за параметрами, а оптимизировали архитектуру именно под понимание и генерацию кода. В отличие от общих моделей, она реже «галлюцинирует» названиями функций и лучше понимает контекст.&lt;br /&gt;
&lt;br /&gt;
* llama.cpp – де-факто стандарт для запуска LLM на потребительском железе. Его последние версии (на момент написания – ветка 2.5.x) сделали огромный скачок в эффективности использования CUDA, особенно для карт с 8 ГБ памяти. Сборка [https://ai-manual.ru/article/sborka-llamacpp-ne-dlya-vseh-kak-zastavit-ego-letat-na-tvoyom-zheleze/ llama.cpp] теперь умеет грациозно работать с смешанной загрузкой (GPU + RAM), что критично для нас.&lt;br /&gt;
&lt;br /&gt;
* Квантование Q4_K_M – золотая середина. Более агрессивные квантования (Q2_K, Q3_K) сильно бьют по качеству, особенно в логических рассуждениях. Менее агрессивные (Q5_K_M, Q6_K) съедают слишком много памяти. Q4_K_M сжимает модель примерно до 5.5 ГБ, оставляя ей достаточно «интеллекта» для решения нетривиальных задач.&lt;br /&gt;
&lt;br /&gt;
 Альтернатива? Конечно, есть. Например, связка OpenCode Interpreter с GLM-5-9B, которая показывает хорошие результаты в интерактивном выполнении кода. Но её требования к памяти и стабильность работы в марте 2026 года всё ещё оставляют желать лучшего для ежедневной работы на слабом железе.&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=%D0%9B%D1%83%D1%87%D1%88%D0%B0%D1%8F_%D1%81%D0%B1%D0%BE%D1%80%D0%BA%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%BB%D0%BE%D0%BA%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D0%B3%D0%BE_%D0%98%D0%98_%D0%BD%D0%B0_%D1%81%D0%BB%D0%B0%D0%B1%D0%BE%D0%BC_%D0%B6%D0%B5%D0%BB%D0%B5%D0%B7%D0%B5:_OmniCoder-9B,_llama.cpp_%D0%B8_32_%D0%93%D0%91_%D0%9E%D0%97%D0%A3&amp;diff=4661</id>
		<title>Лучшая сборка для локального ИИ на слабом железе: OmniCoder-9B, llama.cpp и 32 ГБ ОЗУ</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=%D0%9B%D1%83%D1%87%D1%88%D0%B0%D1%8F_%D1%81%D0%B1%D0%BE%D1%80%D0%BA%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%BB%D0%BE%D0%BA%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D0%B3%D0%BE_%D0%98%D0%98_%D0%BD%D0%B0_%D1%81%D0%BB%D0%B0%D0%B1%D0%BE%D0%BC_%D0%B6%D0%B5%D0%BB%D0%B5%D0%B7%D0%B5:_OmniCoder-9B,_llama.cpp_%D0%B8_32_%D0%93%D0%91_%D0%9E%D0%97%D0%A3&amp;diff=4661"/>
		<updated>2026-04-15T18:19:10Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==ВВОДНАЯ==&lt;br /&gt;
'''Полное руководство по запуску OmniCoder-9B с llama.cpp на слабом железе.'''&amp;lt;br&amp;gt;&lt;br /&gt;
'''Квантование Q4_K_M, настройка CUDA, тесты скорости. Ежедневный кодинг без облачных затрат.'''&amp;lt;br&amp;gt;&lt;br /&gt;
* Когда 8 ГБ видеопамяти должно хватить на всё.&lt;br /&gt;
Вы купили RTX 3070 пару лет назад, и она отлично тянула игры. Теперь вы хотите запустить локальную нейросеть для помощи в кодинге, но каждая модель требует минимум 24 ГБ VRAM. Ваши 8 ГБ – шутка. Вы скачиваете какую-то 7B-модель, а она выдаёт код, который выглядит так, словно его писал студент после трёх бессонных ночей. Знакомая ситуация?&lt;br /&gt;
&lt;br /&gt;
Проблема не в вас. Проблема в том, что большинство гайдов написано для гиков с RTX 4090 и 64 ГБ оперативки. Они могут запустить [https://ai-manual.ru/article/kak-zapustit-llama-70b-lokalno-na-svoyom-kompyutere-poshagovoe-rukovodstvo-dlya-novichkov/  Llama 70B] и не моргнуть глазом. У нас же другие реалии.&lt;br /&gt;
&lt;br /&gt;
* Решение существует. И оно не требует покупки нового железа или продажи почки для облачных кредитов. Всё упирается в три компонента: правильная модель, правильный движок и правильная настройка. На март 2026 года лучший баланс для разработчика с ограниченными ресурсами – это связка OmniCoder-9B, llama.cpp с CUDA и квантование Q4_K_M.&lt;br /&gt;
&lt;br /&gt;
 Забудьте про обещания «запустить что угодно на чём угодно». Речь идёт о рабочем инструменте для ежедневного использования, а не демо на один раз. Скорость генерации должна быть комфортной, а качество кода – приемлемым для реальных задач.&lt;br /&gt;
&lt;br /&gt;
* Почему именно эта тройка? Разбор без маркетинга.&lt;br /&gt;
OmniCoder-9B – не самая новая, но самая выверенная модель для кодинга в своём классе на 2026 год. Её создатели не гнались за параметрами, а оптимизировали архитектуру именно под понимание и генерацию кода. В отличие от общих моделей, она реже «галлюцинирует» названиями функций и лучше понимает контекст.&lt;br /&gt;
&lt;br /&gt;
* llama.cpp – де-факто стандарт для запуска LLM на потребительском железе. Его последние версии (на момент написания – ветка 2.5.x) сделали огромный скачок в эффективности использования CUDA, особенно для карт с 8 ГБ памяти. Сборка [https://ai-manual.ru/article/sborka-llamacpp-ne-dlya-vseh-kak-zastavit-ego-letat-na-tvoyom-zheleze/ llama.cpp] теперь умеет грациозно работать с смешанной загрузкой (GPU + RAM), что критично для нас.&lt;br /&gt;
&lt;br /&gt;
* Квантование Q4_K_M – золотая середина. Более агрессивные квантования (Q2_K, Q3_K) сильно бьют по качеству, особенно в логических рассуждениях. Менее агрессивные (Q5_K_M, Q6_K) съедают слишком много памяти. Q4_K_M сжимает модель примерно до 5.5 ГБ, оставляя ей достаточно «интеллекта» для решения нетривиальных задач.&lt;br /&gt;
&lt;br /&gt;
* Альтернатива? Конечно, есть. Например, связка OpenCode Interpreter с GLM-5-9B, которая показывает хорошие результаты в интерактивном выполнении кода. Но её требования к памяти и стабильность работы в марте 2026 года всё ещё оставляют желать лучшего для ежедневной работы на слабом железе.&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=%D0%9B%D1%83%D1%87%D1%88%D0%B0%D1%8F_%D1%81%D0%B1%D0%BE%D1%80%D0%BA%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%BB%D0%BE%D0%BA%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D0%B3%D0%BE_%D0%98%D0%98_%D0%BD%D0%B0_%D1%81%D0%BB%D0%B0%D0%B1%D0%BE%D0%BC_%D0%B6%D0%B5%D0%BB%D0%B5%D0%B7%D0%B5:_OmniCoder-9B,_llama.cpp_%D0%B8_32_%D0%93%D0%91_%D0%9E%D0%97%D0%A3&amp;diff=4660</id>
		<title>Лучшая сборка для локального ИИ на слабом железе: OmniCoder-9B, llama.cpp и 32 ГБ ОЗУ</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=%D0%9B%D1%83%D1%87%D1%88%D0%B0%D1%8F_%D1%81%D0%B1%D0%BE%D1%80%D0%BA%D0%B0_%D0%B4%D0%BB%D1%8F_%D0%BB%D0%BE%D0%BA%D0%B0%D0%BB%D1%8C%D0%BD%D0%BE%D0%B3%D0%BE_%D0%98%D0%98_%D0%BD%D0%B0_%D1%81%D0%BB%D0%B0%D0%B1%D0%BE%D0%BC_%D0%B6%D0%B5%D0%BB%D0%B5%D0%B7%D0%B5:_OmniCoder-9B,_llama.cpp_%D0%B8_32_%D0%93%D0%91_%D0%9E%D0%97%D0%A3&amp;diff=4660"/>
		<updated>2026-04-15T18:18:06Z</updated>

		<summary type="html">&lt;p&gt;Vix: Новая страница: «==ВВОДНАЯ== '''Полное руководство по запуску OmniCoder-9B с llama.cpp на слабом железе.'''&amp;lt;br&amp;gt; '''Квантование Q4_K_M, настройка CUDA, тесты скорости. Ежедневный кодинг без облачных затрат.''' Когда 8 ГБ видеопамяти должно хватить на всё Вы купили RTX 3070 пару лет назад, и она отлич...»&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;==ВВОДНАЯ==&lt;br /&gt;
'''Полное руководство по запуску OmniCoder-9B с llama.cpp на слабом железе.'''&amp;lt;br&amp;gt;&lt;br /&gt;
'''Квантование Q4_K_M, настройка CUDA, тесты скорости. Ежедневный кодинг без облачных затрат.'''&lt;br /&gt;
Когда 8 ГБ видеопамяти должно хватить на всё&lt;br /&gt;
Вы купили RTX 3070 пару лет назад, и она отлично тянула игры. Теперь вы хотите запустить локальную нейросеть для помощи в кодинге, но каждая модель требует минимум 24 ГБ VRAM. Ваши 8 ГБ – шутка. Вы скачиваете какую-то 7B-модель, а она выдаёт код, который выглядит так, словно его писал студент после трёх бессонных ночей. Знакомая ситуация?&lt;br /&gt;
&lt;br /&gt;
Проблема не в вас. Проблема в том, что большинство гайдов написано для гиков с RTX 4090 и 64 ГБ оперативки. Они могут запустить [https://ai-manual.ru/article/kak-zapustit-llama-70b-lokalno-na-svoyom-kompyutere-poshagovoe-rukovodstvo-dlya-novichkov/  Llama 70B] и не моргнуть глазом. У нас же другие реалии.&lt;br /&gt;
&lt;br /&gt;
Решение существует. И оно не требует покупки нового железа или продажи почки для облачных кредитов. Всё упирается в три компонента: правильная модель, правильный движок и правильная настройка. На март 2026 года лучший баланс для разработчика с ограниченными ресурсами – это связка OmniCoder-9B, llama.cpp с CUDA и квантование Q4_K_M.&lt;br /&gt;
&lt;br /&gt;
 Забудьте про обещания «запустить что угодно на чём угодно». Речь идёт о рабочем инструменте для ежедневного использования, а не демо на один раз. Скорость генерации должна быть комфортной, а качество кода – приемлемым для реальных задач.&lt;br /&gt;
&lt;br /&gt;
* Почему именно эта тройка? Разбор без маркетинга&lt;br /&gt;
OmniCoder-9B – не самая новая, но самая выверенная модель для кодинга в своём классе на 2026 год. Её создатели не гнались за параметрами, а оптимизировали архитектуру именно под понимание и генерацию кода. В отличие от общих моделей, она реже «галлюцинирует» названиями функций и лучше понимает контекст.&lt;br /&gt;
&lt;br /&gt;
llama.cpp – де-факто стандарт для запуска LLM на потребительском железе. Его последние версии (на момент написания – ветка 2.5.x) сделали огромный скачок в эффективности использования CUDA, особенно для карт с 8 ГБ памяти. Сборка [https://ai-manual.ru/article/sborka-llamacpp-ne-dlya-vseh-kak-zastavit-ego-letat-na-tvoyom-zheleze/ llama.cpp] теперь умеет грациозно работать с смешанной загрузкой (GPU + RAM), что критично для нас.&lt;br /&gt;
&lt;br /&gt;
* Квантование Q4_K_M – золотая середина. Более агрессивные квантования (Q2_K, Q3_K) сильно бьют по качеству, особенно в логических рассуждениях. Менее агрессивные (Q5_K_M, Q6_K) съедают слишком много памяти. Q4_K_M сжимает модель примерно до 5.5 ГБ, оставляя ей достаточно «интеллекта» для решения нетривиальных задач.&lt;br /&gt;
&lt;br /&gt;
* Альтернатива? Конечно, есть. Например, связка OpenCode Interpreter с GLM-5-9B, которая показывает хорошие результаты в интерактивном выполнении кода. Но её требования к памяти и стабильность работы в марте 2026 года всё ещё оставляют желать лучшего для ежедневной работы на слабом железе.&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=%D0%A3%D1%81%D1%82%D0%B0%D0%BD%D0%BE%D0%B2%D0%BA%D0%B0_%D0%BC%D0%B5%D0%BD%D0%B5%D0%B4%D0%B6%D0%B5%D1%80%D0%B0_%D0%BB%D0%B8%D1%86%D0%B5%D0%BD%D0%B7%D0%B8%D0%B9_HASP_%D0%BE%D1%82_Etersoft&amp;diff=4659</id>
		<title>Установка менеджера лицензий HASP от Etersoft</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=%D0%A3%D1%81%D1%82%D0%B0%D0%BD%D0%BE%D0%B2%D0%BA%D0%B0_%D0%BC%D0%B5%D0%BD%D0%B5%D0%B4%D0%B6%D0%B5%D1%80%D0%B0_%D0%BB%D0%B8%D1%86%D0%B5%D0%BD%D0%B7%D0%B8%D0%B9_HASP_%D0%BE%D1%82_Etersoft&amp;diff=4659"/>
		<updated>2026-04-14T11:49:55Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;* Просмотр доступности ключа:&lt;br /&gt;
 $  lsusb&lt;br /&gt;
 Bus 001 Device 003: '''ID 0529:0001 Aladdin Knowledge Systems HASP copy protection dongle'''&lt;br /&gt;
 Bus 001 Device 002: ID 80ee:0021 VirtualBox USB Tablet&lt;br /&gt;
 Bus 001 Device 001: ID 1d6b:0001 Linux Foundation 1.1 root hub&lt;br /&gt;
&lt;br /&gt;
 $ ip a192.168.1.238&lt;br /&gt;
&lt;br /&gt;
* Удаление:&lt;br /&gt;
 $ sudo apt-get remove aksusbd&lt;br /&gt;
&lt;br /&gt;
* Установка совмещенного драйвера hasp с lm от Etersoft&lt;br /&gt;
Берем [https://updates.etersoft.ru/pub/Etersoft/HASP/stable/Debian/ здесь]&lt;br /&gt;
&lt;br /&gt;
 $ cd test &lt;br /&gt;
 $ wget http://download.etersoft.ru/pub/Etersoft/HASP/last/x86_64/Ubuntu/16.04/haspd-modules_7.60-eter1ubuntu_amd64.deb&lt;br /&gt;
&lt;br /&gt;
 $ wget http://download.etersoft.ru/pub/Etersoft/HASP/last/x86_64/Ubuntu/16.04/haspd_7.60-eter1ubuntu_amd64.deb&lt;br /&gt;
&lt;br /&gt;
 $ sudo apt install libc6-i386&lt;br /&gt;
 $ sudo dpkg -i haspd-modules_7.60-eter1ubuntu_amd64.deb&lt;br /&gt;
 $ sudo dpkg -i haspd_7.60-eter1ubuntu_amd64.deb&lt;br /&gt;
 $ sudo apt install -f&lt;br /&gt;
 $ sudo systemctl restart haspd.service&lt;br /&gt;
 $ sudo systemctl status haspd.service&lt;br /&gt;
 ● haspd.service - LSB: Hasp keys support&lt;br /&gt;
    Loaded: loaded (/etc/init.d/haspd; bad; vendor preset: enabled)&lt;br /&gt;
    Active: active (running) since Сб 2018-11-10 16:50:47 MSK; 1min 44s ago&lt;br /&gt;
      Docs: man:systemd-sysv-generator(8)&lt;br /&gt;
   Process: 1701 ExecStart=/etc/init.d/haspd start (code=exited, status=0/SUCCESS)&lt;br /&gt;
     Tasks: 11&lt;br /&gt;
    Memory: 9.2M&lt;br /&gt;
       CPU: 356ms&lt;br /&gt;
    CGroup: /system.slice/haspd.service&lt;br /&gt;
            ├─1726 aksusbd&lt;br /&gt;
            ├─1740 winehasp&lt;br /&gt;
            ├─1749 hasplm -c /etc/haspd/hasplm.conf&lt;br /&gt;
            └─1758 hasplmd -s &lt;br /&gt;
&lt;br /&gt;
 ноя 10 16:50:47 u1604 haspd[1701]: Loading HASP LPT kernel module...  (/dev/lp0 device has not found)  [PASSED]&lt;br /&gt;
 ноя 10 16:50:47 u1604 aksusbd[1726]: loaded, daemon version: 7.60.1.70367, key API (USB) version: 3.88 (parallel driver not available)&lt;br /&gt;
 ноя 10 16:50:47 u1604 haspd[1701]: Running aksusbd... [ DONE ]&lt;br /&gt;
 ноя 10 16:50:47 u1604 winehasp[1740]: winehasp 2.00 loaded&lt;br /&gt;
 ноя 10 16:50:47 u1604 haspd[1701]: Running winehasp... [ DONE ]&lt;br /&gt;
 ноя 10 16:50:47 u1604 hasplm[1749]: HASP LM v8.30 loaded&lt;br /&gt;
 ноя 10 16:50:47 u1604 haspd[1701]: Running hasplm... [ DONE ]&lt;br /&gt;
 ноя 10 16:50:47 u1604 hasplmd[1758]: HASP LM v20.0.1.70826 loaded&lt;br /&gt;
 ноя 10 16:50:47 u1604 haspd[1701]: Running hasplmd... [ DONE ]&lt;br /&gt;
 ноя 10 16:50:47 u1604 systemd[1]: Started LSB: Hasp keys support.&lt;br /&gt;
 &lt;br /&gt;
 -----------------------------------------------------------------&lt;br /&gt;
 $ sudo nano /etc/hasplm/hasplm.ini&lt;br /&gt;
 &lt;br /&gt;
 [SERVER]&lt;br /&gt;
 ACCremote = 1&lt;br /&gt;
  &lt;br /&gt;
 http://server_ip:1947&lt;br /&gt;
  ------------------------------------------------------------------&lt;br /&gt;
&lt;br /&gt;
* Работа ключа на удаленной машине – настройка &amp;quot;nethasp.ini&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Для того, чтобы защищенное приложение нормально работало с аппаратным ключом защиты, расположенным на удаленной рабочей станции, необходимо обеспечить беспрепятственный проход UDP- и TCP-пакетов по 475 порту в обе стороны. Также должны проходить и broadcast-пакеты. Если последнее требование не выполняется, необходима настройка приложения через файл &amp;quot;nethasp.ini&amp;quot; (должен находиться в одной директории с защищенным приложением) с целью отключения broadcast-механизма поиска ключа и явного указания IP-адреса машины, обслуживающей ключ.&lt;br /&gt;
&lt;br /&gt;
** Пример &amp;quot;nethasp.ini&amp;quot;:&lt;br /&gt;
&lt;br /&gt;
 --------------------------------------------------&lt;br /&gt;
 [NH_COMMON]&lt;br /&gt;
 NH_TCPIP = Enabled&lt;br /&gt;
 ...&lt;br /&gt;
 [NH_TCPIP]&lt;br /&gt;
 NHS_IP_LIMIT  168.192.1.100,  168.192.1.0/24 // разрешим доступ узлу 168.192.1.100(1с сервер) и сети 168.192.1.0/24: &lt;br /&gt;
 NH_SERVER_ADDR = 168.192.1.41 //ip-адрес компьютера, где расположен менеджер лицензий.&lt;br /&gt;
 NH_TCPIP_METHOD = TCP&lt;br /&gt;
 NH_USE_BROADCAST = Disabled&lt;br /&gt;
* Однако если часть маршрута проходит через Интернет, могут возникнуть проблемы с тайм-аутами при доставке пакетов.&lt;br /&gt;
* Два и более менеджеров лицензий (HASP License Manager) в сети&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
При установке в сети двух и более менеджеров лицензий их необходимо настроить для корректной работы. Иначе в сети может возникать коллизия между менеджерами лицензий по именам: при старте они принимают одно и то же имя по умолчанию, и в результате в сети присутствует несколько ресурсов с одинаковыми именами. Стоит отметить, что нередко менеджеры нормально работают и без настройки. Тем не менее, следует иметь в виду, что возможно возникновение проблемы. Кроме того, настройка может понадобиться, например, чтобы разделить клиентов по разным менеджерам лицензий.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Основная идея настройки в данном случае – назначить каждому менеджеру свое имя и сообщить каждой копии 1С эти имена. Задать имя менеджеру можно через файл &amp;quot;nhsrv.ini&amp;quot;, он должен находиться в одном каталоге с менеджером лицензий (по умолчанию - C:\Program Files\Aladdin\HASP LM). Если менеджер лицензий установлен как сервис, то данный файл необходимо скопировать в каталог Windows\System32 (для 64-разрядных ОС - Windows\SysWOW64). Имя должно состоять из алфавитно-цифровых символов (только латиница) и не должно быть длиннее 7 символов.&lt;br /&gt;
&lt;br /&gt;
* Пример настройки:&lt;br /&gt;
&lt;br /&gt;
 ------------------- &amp;quot;nhsrv.ini&amp;quot; #1------------------------------&lt;br /&gt;
 &lt;br /&gt;
 [NHS_SERVER]&lt;br /&gt;
 NHS_SERVERNAMES = LM1&lt;br /&gt;
 &lt;br /&gt;
 ----------------------------------------------------------------&lt;br /&gt;
 &lt;br /&gt;
 ------------------- &amp;quot;nhsrv.ini&amp;quot; #2------------------------------&lt;br /&gt;
 &lt;br /&gt;
 [NHS_SERVER]&lt;br /&gt;
 NHS_SERVERNAMES = LM2&lt;br /&gt;
 &lt;br /&gt;
 ----------------------------------------------------------------&lt;br /&gt;
 &lt;br /&gt;
* Сообщить защищенному приложению имена менеджеров можно через файл &amp;quot;nethasp.ini&amp;quot;, он должен находиться в одном каталоге с защищенным приложением или в каталоге, который указал разработчик (для 1С – каталог Bin\Conf от корня установки 1С):&lt;br /&gt;
&lt;br /&gt;
 -------------------- &amp;quot;nethasp.ini&amp;quot; ------------------------------&lt;br /&gt;
 &lt;br /&gt;
 [NH_COMMON]&lt;br /&gt;
 NH_IPX = Disabled&lt;br /&gt;
 NH_NETBIOS = Disabled&lt;br /&gt;
 NH_TCPIP = Enabled&lt;br /&gt;
 [NH_TCPIP]&lt;br /&gt;
 NH_SERVER_ADDR = 168.192.1.41, 168.192.1.11&lt;br /&gt;
 NH_SERVER_NAME = LM1, LM2&lt;br /&gt;
 NH_TCPIP_METHOD = UDP&lt;br /&gt;
 NH_USE_BROADCAST = Disabled&lt;br /&gt;
 NH_SESSION = 4 &lt;br /&gt;
 NH_SEND_RCV = 2&lt;br /&gt;
 &lt;br /&gt;
 ----------------------------------------------------------------&lt;br /&gt;
* Параметры &amp;quot;адрес&amp;quot; и &amp;quot;имя&amp;quot; должны соответствовать друг другу, т.е. на машине с адресом 168.192.1.41 должен быть запущен менеджер с именем LM1. Адреса даны для примера, следует указывать реальные IP- адреса машин, где установлены соответствующие менеджеры лицензий.&lt;br /&gt;
&lt;br /&gt;
* [https://renbuar.blogspot.com/2018/11/aksusbd781-1amd64deb.html Источник]&lt;br /&gt;
&lt;br /&gt;
'''Полезное:'''&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://interface31.ru/tech_it/2021/03/ustanovka-hasp-license-manager-v-linux-debian-ubuntu.html Установка HASP License Manager в Linux (Debian / Ubuntu)]&lt;br /&gt;
* [https://1c-programmer-blog.ru/platforma/hasp-license-manager-v-1s-8-2-i-8-3.html HASP License Manager в 1С 8.2 и 8.3]&lt;br /&gt;
* [https://www.euromobile.ru/wiki/sentinel-dlya-razrabotchikov-po/sentinel-admin-control-center/ Почему не видно установленного программного Sentinel (HASP) SL ключа в Admin Control Center]&lt;br /&gt;
* [https://docs.sentinel.thalesgroup.com/softwareandservices/LDK/LDKdocs/SPNL/LDK_SLnP_Guide/Distributing/Admin_Control_Center/123-Viewing_keys_in_ACC.htm Display of Protection Keys and Sessions in Admin Control Center]&lt;br /&gt;
* [https://www.online-ufa.ru/content/articles/1c-nethasp-ini/ Настройка конфигурационных файлов NETHASP.INI и NHSRV.INI...]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=%D0%A3%D1%81%D1%82%D0%B0%D0%BD%D0%BE%D0%B2%D0%BA%D0%B0_%D0%BC%D0%B5%D0%BD%D0%B5%D0%B4%D0%B6%D0%B5%D1%80%D0%B0_%D0%BB%D0%B8%D1%86%D0%B5%D0%BD%D0%B7%D0%B8%D0%B9_HASP_%D0%BE%D1%82_Etersoft&amp;diff=4658</id>
		<title>Установка менеджера лицензий HASP от Etersoft</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=%D0%A3%D1%81%D1%82%D0%B0%D0%BD%D0%BE%D0%B2%D0%BA%D0%B0_%D0%BC%D0%B5%D0%BD%D0%B5%D0%B4%D0%B6%D0%B5%D1%80%D0%B0_%D0%BB%D0%B8%D1%86%D0%B5%D0%BD%D0%B7%D0%B8%D0%B9_HASP_%D0%BE%D1%82_Etersoft&amp;diff=4658"/>
		<updated>2026-04-14T11:48:54Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;* Просмотр доступности ключа:&lt;br /&gt;
 $  lsusb&lt;br /&gt;
 Bus 001 Device 003: '''ID 0529:0001 Aladdin Knowledge Systems HASP copy protection dongle'''&lt;br /&gt;
 Bus 001 Device 002: ID 80ee:0021 VirtualBox USB Tablet&lt;br /&gt;
 Bus 001 Device 001: ID 1d6b:0001 Linux Foundation 1.1 root hub&lt;br /&gt;
&lt;br /&gt;
 $ ip a192.168.1.238&lt;br /&gt;
&lt;br /&gt;
* Удаление:&lt;br /&gt;
 $ sudo apt-get remove aksusbd&lt;br /&gt;
&lt;br /&gt;
* Установка совмещенного драйвера hasp с lm от Etersoft&lt;br /&gt;
Берем [https://updates.etersoft.ru/pub/Etersoft/HASP/stable/Debian/ здесь]&lt;br /&gt;
&lt;br /&gt;
 $ cd test &lt;br /&gt;
 $ wget http://download.etersoft.ru/pub/Etersoft/HASP/last/x86_64/Ubuntu/16.04/haspd-modules_7.60-eter1ubuntu_amd64.deb&lt;br /&gt;
&lt;br /&gt;
 $ wget http://download.etersoft.ru/pub/Etersoft/HASP/last/x86_64/Ubuntu/16.04/haspd_7.60-eter1ubuntu_amd64.deb&lt;br /&gt;
&lt;br /&gt;
 $ sudo apt install libc6-i386&lt;br /&gt;
 $ sudo dpkg -i haspd-modules_7.60-eter1ubuntu_amd64.deb&lt;br /&gt;
 $ sudo dpkg -i haspd_7.60-eter1ubuntu_amd64.deb&lt;br /&gt;
 $ sudo apt install -f&lt;br /&gt;
 $ sudo systemctl restart haspd.service&lt;br /&gt;
 $ sudo systemctl status haspd.service&lt;br /&gt;
 ● haspd.service - LSB: Hasp keys support&lt;br /&gt;
    Loaded: loaded (/etc/init.d/haspd; bad; vendor preset: enabled)&lt;br /&gt;
    Active: active (running) since Сб 2018-11-10 16:50:47 MSK; 1min 44s ago&lt;br /&gt;
      Docs: man:systemd-sysv-generator(8)&lt;br /&gt;
   Process: 1701 ExecStart=/etc/init.d/haspd start (code=exited, status=0/SUCCESS)&lt;br /&gt;
     Tasks: 11&lt;br /&gt;
    Memory: 9.2M&lt;br /&gt;
       CPU: 356ms&lt;br /&gt;
    CGroup: /system.slice/haspd.service&lt;br /&gt;
            ├─1726 aksusbd&lt;br /&gt;
            ├─1740 winehasp&lt;br /&gt;
            ├─1749 hasplm -c /etc/haspd/hasplm.conf&lt;br /&gt;
            └─1758 hasplmd -s &lt;br /&gt;
&lt;br /&gt;
 ноя 10 16:50:47 u1604 haspd[1701]: Loading HASP LPT kernel module...  (/dev/lp0 device has not found)  [PASSED]&lt;br /&gt;
 ноя 10 16:50:47 u1604 aksusbd[1726]: loaded, daemon version: 7.60.1.70367, key API (USB) version: 3.88 (parallel driver not available)&lt;br /&gt;
 ноя 10 16:50:47 u1604 haspd[1701]: Running aksusbd... [ DONE ]&lt;br /&gt;
 ноя 10 16:50:47 u1604 winehasp[1740]: winehasp 2.00 loaded&lt;br /&gt;
 ноя 10 16:50:47 u1604 haspd[1701]: Running winehasp... [ DONE ]&lt;br /&gt;
 ноя 10 16:50:47 u1604 hasplm[1749]: HASP LM v8.30 loaded&lt;br /&gt;
 ноя 10 16:50:47 u1604 haspd[1701]: Running hasplm... [ DONE ]&lt;br /&gt;
 ноя 10 16:50:47 u1604 hasplmd[1758]: HASP LM v20.0.1.70826 loaded&lt;br /&gt;
 ноя 10 16:50:47 u1604 haspd[1701]: Running hasplmd... [ DONE ]&lt;br /&gt;
 ноя 10 16:50:47 u1604 systemd[1]: Started LSB: Hasp keys support.&lt;br /&gt;
 &lt;br /&gt;
 -----------------------------------------------------------------&lt;br /&gt;
 $ sudo nano /etc/hasplm/hasplm.ini&lt;br /&gt;
 &lt;br /&gt;
 [SERVER]&lt;br /&gt;
 ACCremote = 1&lt;br /&gt;
  &lt;br /&gt;
 http://server_ip:1947&lt;br /&gt;
  ------------------------------------------------------------------&lt;br /&gt;
&lt;br /&gt;
* Работа ключа на удаленной машине – настройка &amp;quot;nethasp.ini&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Для того, чтобы защищенное приложение нормально работало с аппаратным ключом защиты, расположенным на удаленной рабочей станции, необходимо обеспечить беспрепятственный проход UDP- и TCP-пакетов по 475 порту в обе стороны. Также должны проходить и broadcast-пакеты. Если последнее требование не выполняется, необходима настройка приложения через файл &amp;quot;nethasp.ini&amp;quot; (должен находиться в одной директории с защищенным приложением) с целью отключения broadcast-механизма поиска ключа и явного указания IP-адреса машины, обслуживающей ключ.&lt;br /&gt;
&lt;br /&gt;
** Пример &amp;quot;nethasp.ini&amp;quot;:&lt;br /&gt;
&lt;br /&gt;
 --------------------------------------------------&lt;br /&gt;
 [NH_COMMON]&lt;br /&gt;
 NH_TCPIP = Enabled&lt;br /&gt;
 ...&lt;br /&gt;
 [NH_TCPIP]&lt;br /&gt;
 NHS_IP_LIMIT  168.192.1.100,  168.192.1.0/24 // разрешим доступ узлу 168.192.1.100(1с сервер) и сети 168.192.1.0/24: &lt;br /&gt;
 NH_SERVER_ADDR = 168.192.1.41 //ip-адрес компьютера, где расположен менеджер лицензий.&lt;br /&gt;
 NH_TCPIP_METHOD = TCP&lt;br /&gt;
 NH_USE_BROADCAST = Disabled&lt;br /&gt;
* Однако если часть маршрута проходит через Интернет, могут возникнуть проблемы с тайм-аутами при доставке пакетов.&lt;br /&gt;
* Два и более менеджеров лицензий (HASP License Manager) в сети&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
При установке в сети двух и более менеджеров лицензий их необходимо настроить для корректной работы. Иначе в сети может возникать коллизия между менеджерами лицензий по именам: при старте они принимают одно и то же имя по умолчанию, и в результате в сети присутствует несколько ресурсов с одинаковыми именами. Стоит отметить, что нередко менеджеры нормально работают и без настройки. Тем не менее, следует иметь в виду, что возможно возникновение проблемы. Кроме того, настройка может понадобиться, например, чтобы разделить клиентов по разным менеджерам лицензий.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Основная идея настройки в данном случае – назначить каждому менеджеру свое имя и сообщить каждой копии 1С эти имена. Задать имя менеджеру можно через файл &amp;quot;nhsrv.ini&amp;quot;, он должен находиться в одном каталоге с менеджером лицензий (по умолчанию - C:\Program Files\Aladdin\HASP LM). Если менеджер лицензий установлен как сервис, то данный файл необходимо скопировать в каталог Windows\System32 (для 64-разрядных ОС - Windows\SysWOW64). Имя должно состоять из алфавитно-цифровых символов (только латиница) и не должно быть длиннее 7 символов.&lt;br /&gt;
&lt;br /&gt;
* Пример настройки:&lt;br /&gt;
&lt;br /&gt;
 ------------------- &amp;quot;nhsrv.ini&amp;quot; #1------------------------------&lt;br /&gt;
 &lt;br /&gt;
 [NHS_SERVER]&lt;br /&gt;
 NHS_SERVERNAMES = LM1&lt;br /&gt;
 &lt;br /&gt;
 ----------------------------------------------------------------&lt;br /&gt;
 &lt;br /&gt;
 ------------------- &amp;quot;nhsrv.ini&amp;quot; #2------------------------------&lt;br /&gt;
 &lt;br /&gt;
 [NHS_SERVER]&lt;br /&gt;
 NHS_SERVERNAMES = LM2&lt;br /&gt;
 &lt;br /&gt;
 ----------------------------------------------------------------&lt;br /&gt;
 &lt;br /&gt;
* Сообщить защищенному приложению имена менеджеров можно через файл &amp;quot;nethasp.ini&amp;quot;, он должен находиться в одном каталоге с защищенным приложением или в каталоге, который указал разработчик (для 1С – каталог Bin\Conf от корня установки 1С):&lt;br /&gt;
&lt;br /&gt;
 -------------------- &amp;quot;nethasp.ini&amp;quot; ------------------------------&lt;br /&gt;
 &lt;br /&gt;
 [NH_COMMON]&lt;br /&gt;
 NH_IPX = Disabled&lt;br /&gt;
 NH_NETBIOS = Disabled&lt;br /&gt;
 NH_TCPIP = Enabled&lt;br /&gt;
 [NH_TCPIP]&lt;br /&gt;
 NH_SERVER_ADDR = 168.192.1.41, 168.192.1.11&lt;br /&gt;
 NH_SERVER_NAME = LM1, LM2&lt;br /&gt;
 NH_TCPIP_METHOD = UDP&lt;br /&gt;
 NH_USE_BROADCAST = Disabled&lt;br /&gt;
 NH_SESSION = 4 &lt;br /&gt;
 NH_SEND_RCV = 2&lt;br /&gt;
 &lt;br /&gt;
 ----------------------------------------------------------------&lt;br /&gt;
* Параметры &amp;quot;адрес&amp;quot; и &amp;quot;имя&amp;quot; должны соответствовать друг другу, т.е. на машине с адресом 168.192.1.41 должен быть запущен менеджер с именем LM1. Адреса даны для примера, следует указывать реальные IP- адреса машин, где установлены соответствующие менеджеры лицензий.&lt;br /&gt;
&lt;br /&gt;
* [https://renbuar.blogspot.com/2018/11/aksusbd781-1amd64deb.html Источник]&lt;br /&gt;
&lt;br /&gt;
'''Полезное:'''&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://interface31.ru/tech_it/2021/03/ustanovka-hasp-license-manager-v-linux-debian-ubuntu.html Установка HASP License Manager в Linux (Debian / Ubuntu)]&lt;br /&gt;
* [https://1c-programmer-blog.ru/platforma/hasp-license-manager-v-1s-8-2-i-8-3.html HASP License Manager в 1С 8.2 и 8.3]&lt;br /&gt;
* [https://www.euromobile.ru/wiki/sentinel-dlya-razrabotchikov-po/sentinel-admin-control-center/ Почему не видно установленного программного Sentinel (HASP) SL ключа в Admin Control Center]&lt;br /&gt;
* [https://docs.sentinel.thalesgroup.com/softwareandservices/LDK/LDKdocs/SPNL/LDK_SLnP_Guide/Distributing/Admin_Control_Center/123-Viewing_keys_in_ACC.htm Display of Protection Keys and Sessions in Admin Control Center]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=%D0%A3%D1%81%D1%82%D0%B0%D0%BD%D0%BE%D0%B2%D0%BA%D0%B0_%D0%BC%D0%B5%D0%BD%D0%B5%D0%B4%D0%B6%D0%B5%D1%80%D0%B0_%D0%BB%D0%B8%D1%86%D0%B5%D0%BD%D0%B7%D0%B8%D0%B9_HASP_%D0%BE%D1%82_Etersoft&amp;diff=4657</id>
		<title>Установка менеджера лицензий HASP от Etersoft</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=%D0%A3%D1%81%D1%82%D0%B0%D0%BD%D0%BE%D0%B2%D0%BA%D0%B0_%D0%BC%D0%B5%D0%BD%D0%B5%D0%B4%D0%B6%D0%B5%D1%80%D0%B0_%D0%BB%D0%B8%D1%86%D0%B5%D0%BD%D0%B7%D0%B8%D0%B9_HASP_%D0%BE%D1%82_Etersoft&amp;diff=4657"/>
		<updated>2026-04-14T11:30:20Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;* Просмотр доступности ключа:&lt;br /&gt;
 $  lsusb&lt;br /&gt;
 Bus 001 Device 003: '''ID 0529:0001 Aladdin Knowledge Systems HASP copy protection dongle'''&lt;br /&gt;
 Bus 001 Device 002: ID 80ee:0021 VirtualBox USB Tablet&lt;br /&gt;
 Bus 001 Device 001: ID 1d6b:0001 Linux Foundation 1.1 root hub&lt;br /&gt;
&lt;br /&gt;
 $ ip a192.168.1.238&lt;br /&gt;
&lt;br /&gt;
* Удаление:&lt;br /&gt;
 $ sudo apt-get remove aksusbd&lt;br /&gt;
&lt;br /&gt;
* Установка совмещенного драйвера hasp с lm от Etersoft&lt;br /&gt;
Берем [https://updates.etersoft.ru/pub/Etersoft/HASP/stable/Debian/ здесь]&lt;br /&gt;
&lt;br /&gt;
 $ cd test &lt;br /&gt;
 $ wget http://download.etersoft.ru/pub/Etersoft/HASP/last/x86_64/Ubuntu/16.04/haspd-modules_7.60-eter1ubuntu_amd64.deb&lt;br /&gt;
&lt;br /&gt;
 $ wget http://download.etersoft.ru/pub/Etersoft/HASP/last/x86_64/Ubuntu/16.04/haspd_7.60-eter1ubuntu_amd64.deb&lt;br /&gt;
&lt;br /&gt;
 $ sudo apt install libc6-i386&lt;br /&gt;
 $ sudo dpkg -i haspd-modules_7.60-eter1ubuntu_amd64.deb&lt;br /&gt;
 $ sudo dpkg -i haspd_7.60-eter1ubuntu_amd64.deb&lt;br /&gt;
 $ sudo apt install -f&lt;br /&gt;
 $ sudo systemctl restart haspd.service&lt;br /&gt;
 $ sudo systemctl status haspd.service&lt;br /&gt;
 ● haspd.service - LSB: Hasp keys support&lt;br /&gt;
    Loaded: loaded (/etc/init.d/haspd; bad; vendor preset: enabled)&lt;br /&gt;
    Active: active (running) since Сб 2018-11-10 16:50:47 MSK; 1min 44s ago&lt;br /&gt;
      Docs: man:systemd-sysv-generator(8)&lt;br /&gt;
   Process: 1701 ExecStart=/etc/init.d/haspd start (code=exited, status=0/SUCCESS)&lt;br /&gt;
     Tasks: 11&lt;br /&gt;
    Memory: 9.2M&lt;br /&gt;
       CPU: 356ms&lt;br /&gt;
    CGroup: /system.slice/haspd.service&lt;br /&gt;
            ├─1726 aksusbd&lt;br /&gt;
            ├─1740 winehasp&lt;br /&gt;
            ├─1749 hasplm -c /etc/haspd/hasplm.conf&lt;br /&gt;
            └─1758 hasplmd -s &lt;br /&gt;
&lt;br /&gt;
 ноя 10 16:50:47 u1604 haspd[1701]: Loading HASP LPT kernel module...  (/dev/lp0 device has not found)  [PASSED]&lt;br /&gt;
 ноя 10 16:50:47 u1604 aksusbd[1726]: loaded, daemon version: 7.60.1.70367, key API (USB) version: 3.88 (parallel driver not available)&lt;br /&gt;
 ноя 10 16:50:47 u1604 haspd[1701]: Running aksusbd... [ DONE ]&lt;br /&gt;
 ноя 10 16:50:47 u1604 winehasp[1740]: winehasp 2.00 loaded&lt;br /&gt;
 ноя 10 16:50:47 u1604 haspd[1701]: Running winehasp... [ DONE ]&lt;br /&gt;
 ноя 10 16:50:47 u1604 hasplm[1749]: HASP LM v8.30 loaded&lt;br /&gt;
 ноя 10 16:50:47 u1604 haspd[1701]: Running hasplm... [ DONE ]&lt;br /&gt;
 ноя 10 16:50:47 u1604 hasplmd[1758]: HASP LM v20.0.1.70826 loaded&lt;br /&gt;
 ноя 10 16:50:47 u1604 haspd[1701]: Running hasplmd... [ DONE ]&lt;br /&gt;
 ноя 10 16:50:47 u1604 systemd[1]: Started LSB: Hasp keys support.&lt;br /&gt;
 &lt;br /&gt;
 -----------------------------------------------------------------&lt;br /&gt;
 $ sudo nano /etc/hasplm/hasplm.ini&lt;br /&gt;
 &lt;br /&gt;
 [SERVER]&lt;br /&gt;
 ACCremote = 1&lt;br /&gt;
  &lt;br /&gt;
 http://server_ip:1947&lt;br /&gt;
  ------------------------------------------------------------------&lt;br /&gt;
&lt;br /&gt;
* Работа ключа на удаленной машине – настройка &amp;quot;nethasp.ini&amp;quot;&lt;br /&gt;
&lt;br /&gt;
Для того, чтобы защищенное приложение нормально работало с аппаратным ключом защиты, расположенным на удаленной рабочей станции, необходимо обеспечить беспрепятственный проход UDP- и TCP-пакетов по 475 порту в обе стороны. Также должны проходить и broadcast-пакеты. Если последнее требование не выполняется, необходима настройка приложения через файл &amp;quot;nethasp.ini&amp;quot; (должен находиться в одной директории с защищенным приложением) с целью отключения broadcast-механизма поиска ключа и явного указания IP-адреса машины, обслуживающей ключ.&lt;br /&gt;
&lt;br /&gt;
** Пример &amp;quot;nethasp.ini&amp;quot;:&lt;br /&gt;
&lt;br /&gt;
 --------------------------------------------------&lt;br /&gt;
 [NH_COMMON]&lt;br /&gt;
 NH_TCPIP = Enabled&lt;br /&gt;
 ...&lt;br /&gt;
 [NH_TCPIP]&lt;br /&gt;
 NHS_IP_LIMIT  168.192.1.100,  168.192.1.0/24 // разрешим доступ узлу 168.192.1.100(1с сервер) и сети 168.192.1.0/24: &lt;br /&gt;
 NH_SERVER_ADDR = 168.192.1.41 //ip-адрес компьютера, где расположен менеджер лицензий.&lt;br /&gt;
 NH_TCPIP_METHOD = TCP&lt;br /&gt;
 NH_USE_BROADCAST = Disabled&lt;br /&gt;
* Однако если часть маршрута проходит через Интернет, могут возникнуть проблемы с тайм-аутами при доставке пакетов.&lt;br /&gt;
* Два и более менеджеров лицензий (HASP License Manager) в сети&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
При установке в сети двух и более менеджеров лицензий их необходимо настроить для корректной работы. Иначе в сети может возникать коллизия между менеджерами лицензий по именам: при старте они принимают одно и то же имя по умолчанию, и в результате в сети присутствует несколько ресурсов с одинаковыми именами. Стоит отметить, что нередко менеджеры нормально работают и без настройки. Тем не менее, следует иметь в виду, что возможно возникновение проблемы. Кроме того, настройка может понадобиться, например, чтобы разделить клиентов по разным менеджерам лицензий.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Основная идея настройки в данном случае – назначить каждому менеджеру свое имя и сообщить каждой копии 1С эти имена. Задать имя менеджеру можно через файл &amp;quot;nhsrv.ini&amp;quot;, он должен находиться в одном каталоге с менеджером лицензий (по умолчанию - C:\Program Files\Aladdin\HASP LM). Если менеджер лицензий установлен как сервис, то данный файл необходимо скопировать в каталог Windows\System32 (для 64-разрядных ОС - Windows\SysWOW64). Имя должно состоять из алфавитно-цифровых символов (только латиница) и не должно быть длиннее 7 символов.&lt;br /&gt;
&lt;br /&gt;
* Пример настройки:&lt;br /&gt;
&lt;br /&gt;
 ------------------- &amp;quot;nhsrv.ini&amp;quot; #1------------------------------&lt;br /&gt;
 &lt;br /&gt;
 [NHS_SERVER]&lt;br /&gt;
 NHS_SERVERNAMES = LM1&lt;br /&gt;
 &lt;br /&gt;
 ----------------------------------------------------------------&lt;br /&gt;
 &lt;br /&gt;
 ------------------- &amp;quot;nhsrv.ini&amp;quot; #2------------------------------&lt;br /&gt;
 &lt;br /&gt;
 [NHS_SERVER]&lt;br /&gt;
 NHS_SERVERNAMES = LM2&lt;br /&gt;
 &lt;br /&gt;
 ----------------------------------------------------------------&lt;br /&gt;
 &lt;br /&gt;
* Сообщить защищенному приложению имена менеджеров можно через файл &amp;quot;nethasp.ini&amp;quot;, он должен находиться в одном каталоге с защищенным приложением или в каталоге, который указал разработчик (для 1С – каталог Bin\Conf от корня установки 1С):&lt;br /&gt;
&lt;br /&gt;
 -------------------- &amp;quot;nethasp.ini&amp;quot; ------------------------------&lt;br /&gt;
 &lt;br /&gt;
 [NH_COMMON]&lt;br /&gt;
 NH_IPX = Disabled&lt;br /&gt;
 NH_NETBIOS = Disabled&lt;br /&gt;
 NH_TCPIP = Enabled&lt;br /&gt;
 [NH_TCPIP]&lt;br /&gt;
 NH_SERVER_ADDR = 168.192.1.41, 168.192.1.11&lt;br /&gt;
 NH_SERVER_NAME = LM1, LM2&lt;br /&gt;
 NH_TCPIP_METHOD = UDP&lt;br /&gt;
 NH_USE_BROADCAST = Disabled&lt;br /&gt;
 NH_SESSION = 4 &lt;br /&gt;
 NH_SEND_RCV = 2&lt;br /&gt;
 &lt;br /&gt;
 ----------------------------------------------------------------&lt;br /&gt;
* Параметры &amp;quot;адрес&amp;quot; и &amp;quot;имя&amp;quot; должны соответствовать друг другу, т.е. на машине с адресом 168.192.1.41 должен быть запущен менеджер с именем LM1. Адреса даны для примера, следует указывать реальные IP- адреса машин, где установлены соответствующие менеджеры лицензий.&lt;br /&gt;
&lt;br /&gt;
* [https://renbuar.blogspot.com/2018/11/aksusbd781-1amd64deb.html Источник]&lt;br /&gt;
&lt;br /&gt;
'''Полезное:'''&lt;br /&gt;
&amp;lt;hr&amp;gt;&lt;br /&gt;
* [https://interface31.ru/tech_it/2021/03/ustanovka-hasp-license-manager-v-linux-debian-ubuntu.html Установка HASP License Manager в Linux (Debian / Ubuntu)]&lt;br /&gt;
* [https://1c-programmer-blog.ru/platforma/hasp-license-manager-v-1s-8-2-i-8-3.html HASP License Manager в 1С 8.2 и 8.3]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
	<entry>
		<id>https://support.qbpro.ru/index.php?title=1%D0%A1_%D0%BD%D0%B5_%D0%B2%D0%B8%D0%B4%D0%B8%D1%82_%D0%BA%D0%BB%D1%8E%D1%87_%D0%B7%D0%B0%D1%89%D0%B8%D1%82%D1%8B_-_%D1%80%D0%B5%D1%88%D0%B5%D0%BD%D0%B8%D1%8F&amp;diff=4656</id>
		<title>1С не видит ключ защиты - решения</title>
		<link rel="alternate" type="text/html" href="https://support.qbpro.ru/index.php?title=1%D0%A1_%D0%BD%D0%B5_%D0%B2%D0%B8%D0%B4%D0%B8%D1%82_%D0%BA%D0%BB%D1%8E%D1%87_%D0%B7%D0%B0%D1%89%D0%B8%D1%82%D1%8B_-_%D1%80%D0%B5%D1%88%D0%B5%D0%BD%D0%B8%D1%8F&amp;diff=4656"/>
		<updated>2026-04-10T00:30:15Z</updated>

		<summary type="html">&lt;p&gt;Vix: &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;'''Статья является копией блога! В случае вопросов на ссылку в конце..'''&lt;br /&gt;
&lt;br /&gt;
Столкнулся на днях с такой проблемой. На одной из машин отказалась работать сетевая версия 1С Предприятие.  При подключении к базе, вываливалась следующая ошибка:&lt;br /&gt;
&lt;br /&gt;
Хочу обратить внимание, что ошибка появилась на компьютере, на котором было 2 сетевые карты с 2мя разными сетями. Почему то сразу значения данному моменту не придал. Видимо, потому что монитор HASP обнаруживал данные ключи отлично, из-за чего искал проблему в 1С. В результате чего убил пол дня рабочего времени. Проблема действительно крылась в двух сетевых картах, а если сказать точнее, 2 разные сети, решение было в файле &lt;br /&gt;
 C:\Program Files\1cv81\bin\conf\nethasp.ini&lt;br /&gt;
&lt;br /&gt;
Отключив сеть, в которой нет ключей HASP, после перезагрузки машины - 1С завелась.... Полез в гугл за решением данной проблемы. Поиск недолго заставил себя ждать, решение следующее:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
* Начну с маленького ликбеза:&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
1С:Предприятие 8 используется систему защиты с помощью аппаратных ключей HASP, скачать драйвер, программу мониторинга и службу HASP Loader можно на сайте http://www.aladdin-rd.ru/, а конкретно в разделе поддержки http://www.aladdin-rd.ru/support/downloads/hasp/.&lt;br /&gt;
Ключи защиты для 1С подразделяются на:&lt;br /&gt;
Однопользовательский ключ 1С1. Однопользовательские (обязательно должны физически быть подключены к компьютеру, на котором запускается 1С)&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
модель HASP HL Basic (синего цвета), данный ключ имеет маркировку H4 M1 ORGL8, не имеет встроенной памяти и персонального ID, не хранит в себе никаких параметров и настроек. Поставляется продуктами имеющими лицензию на одно рабочее место.&lt;br /&gt;
Многопользовательский ключ 1С&lt;br /&gt;
&lt;br /&gt;
* Сетевой ключ HASP&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
2. Многопользовательские (ключ находится в сети, 1С может запускаться на любых компьютера в пределах локальной сети или домена)&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Сетевые клиентские ключи включают серию HASP HL Net (красного цвета). Имеют внутреннюю память, в которой хранится количество лицензий, и уникальный ID. Существуют разновидности на 5, 10, 20, 50 и 100 пользователей. Имеет маркировку NETXX ORGL8, где ХX - количество лицензий (например NET5 ORGL8). Существуют также ключи на 300 и 500 пользователей которые имеют маркировку NET250+ ORG8A и NET250+ ORG8B. Поставляются с продуктами имеющими лицензию на 5 рабочих мест, а также отдельно, в виде дополнительных клиентских лицензий.&lt;br /&gt;
Сервеный ключ HASP&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
* Ключ для Сервера 1С&lt;br /&gt;
&lt;br /&gt;
3. Серверные (обязательно должны физически быть подключены локально к компьютеру, на котором установлен и работает сервер агента 1С Предприятие)&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Ключи для сервера 1С Предприятие бывают только локальные. 32-битная версия имеет ключ защиты HASP HL Pro (фиолетового цвета), который имеет внутреннюю память и уникальный ID. Имеет маркировку ENSR8, поставляется вместе с лицензией на сервер 1С Предприятие.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Для 64-битного сервера используется ключ HASP HL Max (зеленого цвета) с внутренней памятью и уникальным ID. Имеет маркировку EN8SA и поддерживает также 32-битный сервер. Т.е. имея лицензию на 64-битный сервер можно, не меняя ключа, использовать 32-битную версию, но не наоборот.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
Для работы однопользовательского и серверного ключа достаточно установить драйвер ключа защиты на локальной машине и вставить ключ защиты в локальный USB порт.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
* Для многопользовательского (сетевого) ключа защиты необходимо:&lt;br /&gt;
# Установить драйвер ключа защиты на одну из машины в сети, которая будет являться сервером ключа - HASP4_driver_setup.zip&lt;br /&gt;
# Установить сервер (службу) ключа защиты на эту же машину - HASP_LM_setup.zip&lt;br /&gt;
# Вставить ключ защиты в сервер в USB порт&lt;br /&gt;
# Установить 1С на клиентские машины&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
В общем случае, данных действий для работы 1С достаточно. В процессе запуска и дальнейшей работы 1С:Предприятие 8 на локальных машинах, система будет обращаться с помощью broadcast-запроса по порту 475 и искать ключ защиты. В случае не удачного поиска будет выдано сообщение „не обнаружен ключ защиты программы“ и работы 1С:Предприятие прервется.&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
* Если вы столкнулись с сообщением „не обнаружен ключ защиты программы“ необходимо проверить:&lt;br /&gt;
наличие ключа защиты в порту usb сервера ключа&lt;br /&gt;
# проверить запущен ли сервер ключа на сервере (процесс с именем „Hasp loader“)&lt;br /&gt;
# проверить командой telnet доступность сервера ключа с локальной машины по порту 475 (например: telnet 192.168.100.100 475)&lt;br /&gt;
&amp;lt;br&amp;gt;&lt;br /&gt;
* Если все проверки прошли успешно, но ошибка осталась, переходим к более детальным настройкам. В папке установки 1С:Предприятие 8 (как правило, c:\program files\1cv81\bin\conf или c:\program files\1cv8\bin\) имеет файл nethasp.ini. Это файл настройки ключа защиты, он разбит на секции, нас интересует секция [NH_TCPIP]. При установке 1С, по умолчанию, в данной секции все параметры отделены двойными знаками &amp;quot;;&amp;quot;, что означает игнорирование данных настроек. При этом драйвер ключа ведет себя следующим образом:&lt;br /&gt;
# посылается пакет типа broadcast по локальной сети по порту 475 в поисках сервера ключа защиты&lt;br /&gt;
# если ответ не получен — ошибка&lt;br /&gt;
&lt;br /&gt;
* Недостатки конфигурации по умолчанию:&lt;br /&gt;
# на broadcast уходит какое-то время&lt;br /&gt;
# не все сервера отвечают на подобные пакеты&lt;br /&gt;
# broadcast какая-никакая, но нагрузка на сеть&lt;br /&gt;
&lt;br /&gt;
* Для решения данной проблемы необходимо сделать следующее:&lt;br /&gt;
# укажем конкретный адрес где искать сервер ключа (например: NH_SERVER_ADDR = 192.168.100.100)&lt;br /&gt;
# запретим broadcast поиск (NH_USE_BROADCAST = Disabled)&lt;br /&gt;
# и ограничим типы пакетов только TCP-протоколом (NH_TCPIP_METHOD = TCP)&lt;br /&gt;
# &lt;br /&gt;
* Как показывает практика, скорость запуска 1С:Предприятие 8 после такой настройки возрастает заметно!&lt;br /&gt;
** Но есть и кое-какие недостатки данного метода:&lt;br /&gt;
&lt;br /&gt;
необходимо следить за тем, чтобы адрес сервера ключа защиты не изменился, иначе придется на всех локальных машинах перенастраивать файл nethasp.ini!&lt;br /&gt;
&lt;br /&gt;
* Хотел бы так же уточнить несколько моментов по работе с ключами, с которыми пришлось сталкиваться при работе:&lt;br /&gt;
1. Monitor HASP не показывает ключ&lt;br /&gt;
&lt;br /&gt;
Сам по себе монитор может показать только наличие менеджера лицензий на том или ином адресе. Ключ он сможет увидеть только после того, как защищенное приложение успешно откроет хотя бы одну сессию с ключом. Кроме того, следует учитывать, что Aladdin Monitor работает только по протоколу UDP, порт 475. Таким образом, отсутствие данных о ключе в мониторе еще не означает, что ключ недоступен для приложения.&lt;br /&gt;
2. Два ключа защиты 1С HASP на одном компьютере&lt;br /&gt;
&lt;br /&gt;
* При установке двух и более ключей защиты программного обеспечения HASP на один компьютер следует учитывать, что:&lt;br /&gt;
&lt;br /&gt;
* Ключи, имеющие разные серии, будут работать нормально. (по отношению к 1С: 1 серверный и 1 сетевой будут работать нормально)&lt;br /&gt;
* Ключи одной серии будут работать, если такая возможность была реализована разработчиком защищенного ПО. Если же разработчиком данная возможность не была реализована, то ключи, относящиеся к одной серии, не будут работать совместно на одном компьютере, будет виден только один из них: либо ближний к порту (в случае с LPT-ключами), либо размещенный на порту с младшим адресом (в случае с USB-ключами защиты программ HASP). (по отношению к 1С, - 2 локальный или 2 сетевых ключа на одном компьютере работать корректно, скорее всего не будут)&lt;br /&gt;
* не рекомендуется ставить вместе локальный и сетевой ключ, это связано с особенностью защиты 1С Предприятия: находя локальный ключ программа никогда не будет искать сетевой.&lt;br /&gt;
&lt;br /&gt;
* Возможные решения данной проблемы:&lt;br /&gt;
&lt;br /&gt;
* Замена нескольких ключей защиты программ HASP на один, с бОльшим количеством лицензий (об этом хорошо написано [http://v8.1c.ru/predpriyatie/questions_licence.htm тут].&lt;br /&gt;
* Установка ключей защиты на разные компьютеры с последующей установкой и настройкой менеджеров лицензий при каждом ключе.&lt;br /&gt;
&lt;br /&gt;
3. Два и более менеджеров лицензий (License Manager) в сети&lt;br /&gt;
&lt;br /&gt;
При наличии двух и более сетевых ключей не всегда достаточно разнести их по разным компьютерам. Следует выполнить настройку менеджеров лицензий. Каждый менеджер лицензий должен иметь уникальное имя, которое следует явным образом сообщить защищаемой программе. Рекомендуется выполнить аналогичную настройку и в случае использования сервера терминалов, даже при одном сетевом ключе.&lt;br /&gt;
&lt;br /&gt;
* На машине где установлен ключ находим файл nhsrv.ini в папке с менеджером лицензий. За имя сервера лицензий отвечает параметр NHS_SERVERNAMES, оно может состоять из латинских букв и цифр и содержать не более 7 символов.&lt;br /&gt;
&lt;br /&gt;
    [NHS_SERVER]&lt;br /&gt;
     NHS_SERVERNAMES = NAME1&lt;br /&gt;
&lt;br /&gt;
* После чего на клиентских машинах желательно отредактировать файл nethasp.ini, явным образом указав адреса и имена менеджеров лицензий:&lt;br /&gt;
&lt;br /&gt;
    [NH_COMMON]&lt;br /&gt;
     NH_TCPIP = Enabled&lt;br /&gt;
&lt;br /&gt;
    [NH_TCPIP]&lt;br /&gt;
     NH_SERVER_ADDR = 192.168.0.10, 192.168.0.11&lt;br /&gt;
     NH_SERVER_NAME = NAME1, NAME2&lt;br /&gt;
&lt;br /&gt;
* Ну вроде все нюансы описал, если чего вспомню, обязательно дополню! Всем пока!&lt;br /&gt;
&lt;br /&gt;
[http://www.k-max.name/windows/ne-obnaruzhen-klyuch-zashhity-programmy-v-1spredpriyatie-8-ili-likbez-zashhity-1s/ Авторская ссылка]&lt;/div&gt;</summary>
		<author><name>Vix</name></author>
	</entry>
</feed>