Недавно я посетил одно или два интервью для стартапов в области искусственного интеллекта. Стартапы, с которыми я беседовал, искали первокурсников, которые имели небольшие знания или некоторый опыт в области машинного обучения, глубокого обучения и обработки изображений в основном. Итак, я собираюсь упомянуть некоторые темы или определения, которые вы никогда не должны ошибаться в этих интервью, потому что это основные вопросы, которые вы ожидаете.
Разница между машинным обучением и глубоким обучением:
Машинное обучение (ML) — относится к системам, которые могут учиться на собственном опыте. Глубокое обучение (DL) — относится к системам, которые учатся на основе опыта работы с большими наборами данных. Искусственные нейронные сети (ИНС) — относятся к моделям нейронных сетей человека, которые предназначены для помощи компьютерам в обучении.
Нейронная сеть:
это вычислительная система обучения, которая использует сеть функций для понимания и преобразования входных данных одной формы в желаемый результат, обычно в другой форме. Нейронные сети обычно организованы в виде слоев. Слои состоят из ряда взаимосвязанных «узлов», которые содержат «функцию активации». Если вы хотите узнать больше, вы можете перейти по приведенной ниже ссылке, и это здорово.
Основное введение в нейронные сети
Простейшее определение нейронной сети, более правильно называемое «искусственной нейронной сетью (ИНС), это… пользователи.cs.duke.edu»
Вероятность и формула:
Вероятность означает, насколько вероятно, что событие может произойти.Формула вероятности определяется как вероятность того, что событие произойдет, равно отношению числа исходов к общему числу исходов.
Отклонение и погрешность:
Смещение возникает, когда алгоритм имеет ограниченную гибкость для извлечения истинного сигнала из набора данных. Параметрические алгоритмы склонны к высокому смещению. данные (недостаточное соответствие).
Дисперсия — это ошибка от чувствительности к небольшим колебаниям обучающей выборки. Высокая дисперсия может привести к тому, что алгоритм будет моделировать случайный шум в обучающих данных, а не ожидаемые результаты (переобучение).
Стандартное отклонение и среднее:
Стандартное отклонение — это число, которое описывает, насколько разбросаны значения. Среднее — это среднее.
Как стандартное отклонение используется в машинном обучении?
Использование этой метрики для расчета изменчивости совокупности или выборки является важной проверкой точности модели машинного обучения по сравнению с реальными данными. Кроме того, стандартное отклонение можно использовать для измерения достоверности статистических выводов модели.
Нормализация:
Нормализация — это метод, часто применяемый как часть подготовки данных для машинного обучения. Целью нормализации является изменение значений числовых столбцов в наборе данных для использования общей шкалы без искажения различий в диапазонах значений или потери информации. Наибольшее значение для каждого атрибута равно 1, а наименьшее значение равно 0. (Полезно, когда вы знаете, что ваш набор данных не является гауссовским.)
Стандартизация:
Стандартизация данных заключается в обеспечении внутренней согласованности данных; то есть каждый тип данных имеет одинаковое содержание и формат. Стандартизированные значения полезны для отслеживания данных, которые сложно сравнить иначе. Предполагается, что ваши данные имеют распределение Гаусса (гауссовая кривая). Стандартизация данных — это процесс изменения масштаба. один или несколько атрибутов, чтобы они имели среднее значение 0 и стандартное отклонение 1.
Параметры и гиперпараметры:
Гиперпараметры и параметры часто используются взаимозаменяемо, но между ними есть разница. Вы называете что-то «гиперпараметром», если оно не может быть изучено непосредственно в оценщике. Однако «параметры» — более общий термин. Когда вы говорите «передача параметров в модель», это обычно означает комбинацию гиперпараметров вместе с некоторыми другими параметрами, которые не связаны напрямую с вашей оценкой, но необходимы для вашей модели. Например: SVM имеет C, ядро и random_state, где C и ядро являются гиперпараметром, а последний является параметром модели.
Классификация:
Классификация — это тип контролируемого обучения. Он указывает класс, к которому принадлежат элементы данных, и его лучше всего использовать, когда выходные данные имеют конечные и дискретные значения. Он также предсказывает класс для входной переменной
Регрессия:
Регрессия – это алгоритм ML, который можно обучить для предсказания выходных данных с реальными номерами; такие как температура, курс акций и т. д. Регрессия основана на гипотезе, которая может быть линейной, квадратичной, полиномиальной, нелинейной и т. д.
Кластеризация:
Кластеризация – это задача разделения совокупности или точек данных на несколько групп таким образом, чтобы точки данных в одних и тех же группах были более похожи на другие точки данных в той же группе и отличались от точек данных в других группах. группы.
Обратное распространение:
Обратное-распространение — это просто способ распространения общей потери обратно в нейронную сеть. strong>, чтобы узнать, за какую часть потерь отвечает каждый узел, и впоследствии обновить веса таким образом, чтобы минимизировать потери, присвоив узлам с более высокой частотой ошибок меньшие веса, и наоборот.
Функции потерь:
Это метод оценки того, насколько хорошо конкретный алгоритм моделирует данные. Если прогнозы слишком сильно отклоняются от фактических результатов, функция потерь выдаст очень большое число. Постепенно, с помощью некоторой функции оптимизации, функция потерь учится уменьшать ошибку предсказания. Например: MSE, потеря журнала и т. д.
Функции активации:
Функции активации — это математические уравнения, определяющие выходные данные нейронной сети. Функция прикрепляется к каждому нейрону в сети и определяет, должен ли он быть активирован («запущен») или нет, в зависимости от того, имеет ли значение ввод каждого нейрона для предсказания модели. Например: сигмоид, танх, двоичный шаг и т. д.
Если вы собираетесь на собеседование по обработке изображений, очень важно знать по крайней мере о 2–3 стандартных архитектурах, таких как YOLO, CNN, Faster-RCNN и т. д.
YOLO: в основном для обнаружения объектов для более высокой скорости.
CNN: классификация изображений.
Faster-RCNN: обнаружение объектов
VGGNet: классификация изображений
Маска RCNN: сегментация изображения
Обнаружение объектов против классификации объектов против сегментации изображений:
Перейдите по ссылке ниже, чтобы прочитать простые объяснения тем, если вы хотите пересмотреть.
Вы должны быть в состоянии ответить, какая архитектура или какой метод обработки изображений будет применяться в соответствии со сценарием, который они дают. И, наконец, очень важно иметь возможность объяснить любой проект, который вы сделали, связанный с ИИ. Потратьте свое время на объяснение это ясно.
Удачи!