Я посмотрел все уроки спустя долгое время из [этого поста](https://medium.com/@crcrpar/what-i-learned-from-fast-ai-ml-till-5-510040c6d91f). Тем не менее, последние пару уроков имели некоторое содержание, такое как соревнования Kaggle Rossman, которые проводились в курсе Deep Learning. Итак, я не стал делать заметки так много.

Самое впечатляющее содержимое:
* Реализовать Random Forest с нуля, используя numpy и, при необходимости, Cython. Здесь, я думаю, мы можем использовать CuPy: NumPy-совместимая библиотека матриц, ускоренная с помощью CUDA.
* Интерпретация случайного леса: важность признаков, частичная зависимость, интерпретатор дерева типа 2 (объясните одно предсказание) и экстраполяция.< br /> Что касается интерпретации, я думаю, что книгу Интерпретируемое машинное обучение Кристофа Молнара необходимо прочитать, потому что книга охватывает обычное машинное обучение и методы, объясняющие предсказания нейронных сетей.

Но, поскольку я был занят, я скопировал и вставил свой журнал сюда. Возможно, я подробнее остановлюсь на этом посте позже.
Кроме того, последние пару уроков содержали некоторое содержание, сделанное в курсе fast.ai Deep Learning.

Что меня больше всего впечатлило

Один из уроков из последней половины состоит в том, что на самом деле важна важность функции, а не показатель AUC или точность. И еще один урок: Random Forest возвращает среднее значение соседних точек в пространстве дерева. Таким образом, если входные данные удалены от пространства, прогнозы должны быть средними для всего набора обучающих данных.

В дальнейшем я просто копирую свои заметки. Так что не стесняйтесь прекращать чтение :)
Я был занят, поэтому скопировал и вставил свой журнал сюда. Возможно, я подробнее остановлюсь на этом посте позже.
Кроме того, последние пару уроков содержали некоторое содержание, сделанное в курсе fast.ai Deep Learning.

Урок 6

Зачем мне машинное обучение?
метод драйвтрена
Примеры того, как люди используют машинное обучение в бизнесе (на слайде).
Горизонтальные приложения.

Отток: предсказать, кто собирается уйти.
была бы интересна книга Джереми Ховарда по продуктам данных.
определенная цель, рычаги, данные, модели.
рычаги = какие входные данные мы можем контролировать
данные = какие данные мы можем собирать
модели = как рычаги влияют на цель
рычаги для прогнозирования оттока это…
мотивировать пользователей не уходить с сервиса?
изменить цены?
уточнить, что мы можем сделать на самом деле !
после этого уточните, какие данные доступны или необходимы.
На практике больше заботьтесь о моделировании.
создайте имитационную модель;
предскажите, что произойдет, исходя из того, что предсказывает модель.
~~модель оптимизации в основном ~~
прогнозирующая модель переходит в имитационную модель, дающую прогнозы.
имитационная модель предсказывает вероятность того, что цель изменит свое поведение в результате действия, которое мы сделали.

об интерпретации больше прогнозов.
Используйте важность функции, чтобы решить следующее действие!

В бизнесе действительно важна важность характеристик, т. е. понимание, а не показатель AUC.

— -

вертикальные приложения
риск реадмиссии
прогностическая модель, конечно, полезна, но важность функции будет играть роль.
вы можете построить диаграмму без машинного обучения, но если с машинным обучением и его функцией важность, диаграмма будет значительно улучшена и поможет в принятии решений.

есть еще скептицизм от незнания подхода к данным.

— — break — -
интерпретация случайного леса.
достоверность на основе дисперсии дерева.

как рассчитать важность функции для определенной функции. тип 1
как вычислить из обученного случайного леса?
- случайным образом перетасовать столбец и вычислить счет и выигрыш.
Джереми смотрит на относительную разницу.
Сами скаляры ему не важны?
еще и заговоры наживы пригодятся. Плато с низкими значениями признаков не будет полезным.

Частичная зависимость.
всегда будет куча взаимодействий различных функций.
Таким образом, 2D-график не может описать это и будет большой проблемой.
Как рассчитать?
оставив все другие функции как есть и замена значений одним значением, а также вычисление прогноза. Повторите это!
График частичной зависимости говорит о лежащей в основе истине.

Интерпретатор дерева типа 2
интерпретирует функции для конкретного наблюдения
, например водопада.

Экстраполяция
(живое кодирование)
выигрыш от нескольких вложений заключается в их взаимодействии.
RF просто возвращает среднее значение соседних точек в пространстве дерева.
Если входные данные действительно далеки из выборок в обучающем наборе данных,
он просто возвращает среднее значение всего обучающего набора данных.
ATM, нет способа справиться с этим, но есть анализ временных рядов и нейронная сеть.

Урок 7

Случайный лес и нейронные сети — это два ключа.
Большой прогресс был достигнут в методах, основанных на дереве решений, таких как случайный лес и GBM.
RF сложнее испортить, чем GBM.

22 наблюдения. t-распределение превращается в нормальное распределение.
проверка.
стандартная ошибка = std / sqrt(n)

избыточная выборка до тех пор, пока количество экземпляров в каждом классе не станет равным наиболее распространенному классу, является правильным решением o.
Или стратифицированная выборка для создания мини-пакетов.

— -

соревнования по бульдозерному кагглу.
образцы рядов с заменой

В дереве решений нет случайности.
Случайность возникает при создании набора деревьев решений в случайном лесу, т. е. при выборе индексов.

как найти переменные для разделения в дереве решений?
lhs.std() * lhs.score + rhs.std() * rhs.score()
Реализация O(N) с использованием sqrt( x** 2 — среднее (x) ** 2 / N)

class A
def foo(self, …)
def foo(self, …)
A.foo = foo

Начните с предположения и предположим, что я ошибаюсь в кодировании.
Тернарный оператор полезен.

Случайный лес sklearn написан на Cython.
В первый раз он должен работать медленнее.

Работа с NumPy (документация по Cython)
https://cython.readthedocs.io/en/latest/src/tutorial/numpy.html

RF – метод ближайшего соседа.

Урок 8

pickle работает почти со всеми объектами Python, но не оптимально.
файлы pickle предназначены только для Python.

В случайном лесу нормализация к независимым переменным не имеет значения.
Порядок имеет значение. Случайный лес игнорирует проблемы масштаба или статистического распределения.