На узлах кластера Kubernetes заканчиваются иноды в /tmp

Существует ли рекомендуемый минимальный размер (или минимальное количество инодов) для файловой системы /tmp (раздела) на узлах кластера Kubernetes?

То, что я испытываю (в чистом кластере Kubernetes 1.16.3), заключается в том, что узлы кластера используют 100% используемых инодов (согласно df -i). Это имеет некоторые негативные последствия (как и следовало ожидать; например, kubectl exec ... bash в подах на соответствующих узлах приводит к «не осталось места на устройстве»), но kubectl get nodes (как ни странно) по-прежнему сообщает об этих узлах как «Готово». Используемые файловые системы /tmp относительно малы, то есть 2G (121920 инодов) и 524M (35120 инодов) соответственно.


person rookie099    schedule 15.01.2020    source источник


Ответы (1)


Для kubernetes не существует рекомендуемого минимального размера. Значения по умолчанию хороши для большинства случаев, но вы создаете, например. во многих пустых файлах у вас могут закончиться индексные дескрипторы. Если вам нужно больше, вам нужно вручную настроить его количество.

person Matt    schedule 16.01.2020
comment
Я не знаю, что любая из моих рабочих нагрузок создаст чрезмерное количество недолговечных файлов в /tmp, поэтому я все еще немного озадачен тем, почему кластер достигает этих пределов. - person rookie099; 16.01.2020
comment
Итак, теперь я нашел виновника: у меня был скрипт, запущенный через плагин collectd Exec, который не удалял временный файл при сбое (из-за устаревших учетных данных). т.е. это не было вызвано ни кластером Kubernetes, ни какой-либо из его рабочих нагрузок. - person rookie099; 16.01.2020