Подключаем swap-файл на ZFS в Proxmox

  1. zfs create -V 8G -b $(getconf PAGESIZE) -o logbias=throughput -o sync=always -o primarycache=metadata -o com.sun:auto-snapshot=false rpool/swap
  1. mkswap -f /dev/zvol/rpool/swap
  1. swapon /dev/zvol/rpool/swap

добавляем в /etc/fstab

  1. /dev/zvol/rpool/swap none swap discard 0 0
  2. mount -av

настройка vsftpd

Иногда приходится использовать ftp для сканирования со старых мфу. В linux его настроить довольно просто.

Устанавливается командой:

sudo apt install vsftpd

Редактируем файл конфигурации

sudo nano /etc/vsftpd.conf

В него нужно добавить параметр write_enable=YES.

Далее перезапускаем сервис vsftpd и можно пользоваться.

sudo systemctl restart vsftpd

Подключение samba каталога в linux

По умолчанию пакет для работы с samba не установлен, ставим командой:

sudo apt install cifs-utils

Предварительно создаем папку, в которую будем подключать samba каталог:

sudo mkdir -p /mnt/work

Далее редактируем файл с точками монтирования:

sudo nano /etc/fstab

Добавляем в него эту строчку:

//smb.domain.org/work /mnt/work cifs noperm,_netdev,user,credentials=/home/user/.creds 0 0

Т.к. мы ссылаемся на дополнительный файл учетных данных, его тоже нужно создать:

nano /home/user/.creds
username=john
password=123
domain=domain.org

И проверить подключение:

sudo mount -av

Монтирование образа как usb-flash в ProxMox

Создание пустого образа:

dd if=/dev/zero of=/rpool/data2/sto.img bs=8M count=1000

Собственно подключение его в конфиге vm, /etc/pve/qemu-server/xxx.conf

args: -device piix3-usb-uhci,addr=0x18 -drive id=usb_disk,file=/rpool/data2/sto.img,if=none,format=raw -device usb-storage,drive=usb_disk,removable=on

Для q35 команда немного другая:

args: -drive id=stick,if=none,format=raw,file=/rpool/data2/sto.img -device usb-storage,drive=stick,bootindex=1

Настройка ARC ZFS

ARC (Adaptive Replacement Cache, кэш адаптивной замены) – собственный эффективный механизм кеширования ZFS использующий достаточно сложные и эффективные алгоритмы. Основной смысл его работы – максимально исключить обращения к диску на чтение в пользу использования кешированных данных. И чем эффективнее работает ARC, чем больше попаданий в кеш, тем тяжелее становятся его элементы и тем труднее их из памяти вытеснить. В результате ZFS практически всегда будет занимать под ARC все доступное ей пространство. С одной стороны, это хорошо, но не будем забывать, что память – дорогой ресурс, а соверменные хранилища могут состоять из быстрых SSD или NVMe накопителей.

В большинстве случаев имеет смысл радикально ограничить ZFS в потреблении памяти, высвободив ее для виртуальных машин.

Классическая формула расчета предполагает:

1 ГБ для хоста + 1 ГБ на 1 ТБ хранилища

При этом не рекомендуется использовать значения кеша менее 3 ГБ.

Современные рекомендации предполагают большие размеры выделяемой памяти:

1 ГБ + 4-5 ГБ на 1 ТБ хранилища

А если вы используете дедупликацию, то:

1 ГБ + 5-6 ГБ на 1 ТБ хранилища

Исходя из этого и рекомендаций по минимальному размеру можно считать достаточно оптимальным значением для небольших хранилищ размер кеша 4 – 8 ГБ. Размер кеша ZFS задается в байтах и вычислить его можно по формуле:

N*1048576*1024

Где N – нужное значение в ГБ.

Чтобы добавить собственные настройки лимитов ARC создайте, если вы не сделали этого ранее, файл /etc/modprobe.d/zfs.conf и откройте его для редактирования. Все это можно сделать одной командой:

nano /etc/modprobe.d/zfs.conf

Если вы предпочитаете редактор mc, замените nano на mcedit. Если файл не существует, то он будет создан и открыт для редактирования, если существует – просто открыт для редактирования.

Теперь внесем в него следующие строки, задающие минимальный и максимальный размер кеша:

options zfs zfs_arc_min=4294967296 
options zfs zfs_arc_max=8589934592

Затем обновим образ начальной файловой системы:

update-initramfs -u

Если ваша система использует UEFI, то дополнительно выполните:

pve-efiboot-tool refresh

После чего выполните перезагрузку.

Результат обычно виден сразу и, что называется, невооруженным глазом.

Как видим, даже минимальное понимание происходящих процессов и грамотный подход к распределению оперативной памяти дает отличный результат, позволяя использовать все возможности ZFS, не жертвуя столь необходимой для виртуальных машин памятью.

автосмена обоев gnome-shell

Установить менеджер дополнений гнома:

sudo apt install gnome-shell-extension-manager

И в нем установить дополнение Wallpaper Switcher

Дальше остается только выбрать директорию с изображениями.

yandex-browser no_pubkey

Если при обновлении яндекс браузера вылезла ошибка:

W: Произошла ошибка при проверке подписи. Репозиторий не обновлён, и будут использованы предыдущие индексные файлы. Ошибка GPG: https://repo.yandex.ru/yandex-browser/deb stable InRelease: Следующие подписи не могут быть проверены, так как недоступен открытый ключ: NO_PUBKEY 60B9CD3A083A7A9A
W: Не удалось получить https://repo.yandex.ru/yandex-browser/deb/dists/stable/InRelease Следующие подписи не могут быть проверены, так как недоступен открытый ключ: NO_PUBKEY 60B9CD3A083A7A9A
W: Некоторые индексные файлы скачать не удалось. Они были проигнорированы, или вместо них были использованы старые версии.

то делаем следующее

wget https://repo.yandex.ru/yandex-browser/YANDEX-BROWSER-KEY.GPG -O- | sudo tee /etc/apt/trusted.gpg.d/YANDEX-BROWSER-KEY.asc

и пытаемся обновить еще раз.

источник

lvm raid1 swap

Добавляем диски в LVM

pvcreate /dev/sdX1 /dev/sdY1

Создаём группу vgdata из двух дисков

vgcreate raid1vg0 /dev/sdX1 /dev/sdY1

Создаём логический диск с RAID 1 под именем lvmirror на 3ГБ:

lvcreate --mirrors 1 --type raid1 -l 100%FREE --nosync -n swap raid1vg0

можно указать флаг --nosync, чтобы пропустить синхронизацию пустого зеркала.

Смотрим что получилось

lvs -a -o +devices

Колонка Cpy%Sync показывает, процент синхронизации, а Devices, устройства, на которых находятся данные логического диска.

SWAP

Осталось создать swap раздел:

mkswap /dev/raid1vg0/swap

И добавить в fstab:

/dev/raid1vg0/swap  swap  swap    defaults,noatime,discard  0 0
Читать далее «lvm raid1 swap»