Недавно я посетил одно или два интервью для стартапов в области искусственного интеллекта. Стартапы, с которыми я беседовал, искали первокурсников, которые имели небольшие знания или некоторый опыт в области машинного обучения, глубокого обучения и обработки изображений в основном. Итак, я собираюсь упомянуть некоторые темы или определения, которые вы никогда не должны ошибаться в этих интервью, потому что это основные вопросы, которые вы ожидаете.

Разница между машинным обучением и глубоким обучением:

Машинное обучение (ML) — относится к системам, которые могут учиться на собственном опыте. Глубокое обучение (DL) — относится к системам, которые учатся на основе опыта работы с большими наборами данных. Искусственные нейронные сети (ИНС) — относятся к моделям нейронных сетей человека, которые предназначены для помощи компьютерам в обучении.

Нейронная сеть:

это вычислительная система обучения, которая использует сеть функций для понимания и преобразования входных данных одной формы в желаемый результат, обычно в другой форме. Нейронные сети обычно организованы в виде слоев. Слои состоят из ряда взаимосвязанных «узлов», которые содержат «функцию активации». Если вы хотите узнать больше, вы можете перейти по приведенной ниже ссылке, и это здорово.



Вероятность и формула:

Вероятность означает, насколько вероятно, что событие может произойти.Формула вероятности определяется как вероятность того, что событие произойдет, равно отношению числа исходов к общему числу исходов.

Отклонение и погрешность:

Смещение возникает, когда алгоритм имеет ограниченную гибкость для извлечения истинного сигнала из набора данных. Параметрические алгоритмы склонны к высокому смещению. данные (недостаточное соответствие).

Дисперсия — это ошибка от чувствительности к небольшим колебаниям обучающей выборки. Высокая дисперсия может привести к тому, что алгоритм будет моделировать случайный шум в обучающих данных, а не ожидаемые результаты (переобучение).

Стандартное отклонение и среднее:

Стандартное отклонение — это число, которое описывает, насколько разбросаны значения. Среднее — это среднее.

Как стандартное отклонение используется в машинном обучении?

Использование этой метрики для расчета изменчивости совокупности или выборки является важной проверкой точности модели машинного обучения по сравнению с реальными данными. Кроме того, стандартное отклонение можно использовать для измерения достоверности статистических выводов модели.

Нормализация:

Нормализация — это метод, часто применяемый как часть подготовки данных для машинного обучения. Целью нормализации является изменение значений числовых столбцов в наборе данных для использования общей шкалы без искажения различий в диапазонах значений или потери информации. Наибольшее значение для каждого атрибута равно 1, а наименьшее значение равно 0. (Полезно, когда вы знаете, что ваш набор данных не является гауссовским.)

Стандартизация:

Стандартизация данных заключается в обеспечении внутренней согласованности данных; то есть каждый тип данных имеет одинаковое содержание и формат. Стандартизированные значения полезны для отслеживания данных, которые сложно сравнить иначе. Предполагается, что ваши данные имеют распределение Гаусса (гауссовая кривая). Стандартизация данных — это процесс изменения масштаба. один или несколько атрибутов, чтобы они имели среднее значение 0 и стандартное отклонение 1.

Параметры и гиперпараметры:

Гиперпараметры и параметры часто используются взаимозаменяемо, но между ними есть разница. Вы называете что-то «гиперпараметром», если оно не может быть изучено непосредственно в оценщике. Однако «параметры» — более общий термин. Когда вы говорите «передача параметров в модель», это обычно означает комбинацию гиперпараметров вместе с некоторыми другими параметрами, которые не связаны напрямую с вашей оценкой, но необходимы для вашей модели. Например: SVM имеет C, ядро ​​​​и random_state, где C и ядро ​​​​являются гиперпараметром, а последний является параметром модели.

Классификация:

Классификация — это тип контролируемого обучения. Он указывает класс, к которому принадлежат элементы данных, и его лучше всего использовать, когда выходные данные имеют конечные и дискретные значения. Он также предсказывает класс для входной переменной

Регрессия:

Регрессия – это алгоритм ML, который можно обучить для предсказания выходных данных с реальными номерами; такие как температура, курс акций и т. д. Регрессия основана на гипотезе, которая может быть линейной, квадратичной, полиномиальной, нелинейной и т. д.

Кластеризация:

Кластеризация – это задача разделения совокупности или точек данных на несколько групп таким образом, чтобы точки данных в одних и тех же группах были более похожи на другие точки данных в той же группе и отличались от точек данных в других группах. группы.

Обратное распространение:

Обратное-распространение — это просто способ распространения общей потери обратно в нейронную сеть. strong>, чтобы узнать, за какую часть потерь отвечает каждый узел, и впоследствии обновить веса таким образом, чтобы минимизировать потери, присвоив узлам с более высокой частотой ошибок меньшие веса, и наоборот.

Функции потерь:

Это метод оценки того, насколько хорошо конкретный алгоритм моделирует данные. Если прогнозы слишком сильно отклоняются от фактических результатов, функция потерь выдаст очень большое число. Постепенно, с помощью некоторой функции оптимизации, функция потерь учится уменьшать ошибку предсказания. Например: MSE, потеря журнала и т. д.

Функции активации:

Функции активации — это математические уравнения, определяющие выходные данные нейронной сети. Функция прикрепляется к каждому нейрону в сети и определяет, должен ли он быть активирован («запущен») или нет, в зависимости от того, имеет ли значение ввод каждого нейрона для предсказания модели. Например: сигмоид, танх, двоичный шаг и т. д.

Если вы собираетесь на собеседование по обработке изображений, очень важно знать по крайней мере о 2–3 стандартных архитектурах, таких как YOLO, CNN, Faster-RCNN и т. д.

YOLO: в основном для обнаружения объектов для более высокой скорости.

CNN: классификация изображений.

Faster-RCNN: обнаружение объектов

VGGNet: классификация изображений

Маска RCNN: сегментация изображения

Обнаружение объектов против классификации объектов против сегментации изображений:

Перейдите по ссылке ниже, чтобы прочитать простые объяснения тем, если вы хотите пересмотреть.

https://medium.com/@machine_learner/a-brief-brush-up-on-deep-learning-concepts-introduction-1ad95fe55df9

Вы должны быть в состоянии ответить, какая архитектура или какой метод обработки изображений будет применяться в соответствии со сценарием, который они дают. И, наконец, очень важно иметь возможность объяснить любой проект, который вы сделали, связанный с ИИ. Потратьте свое время на объяснение это ясно.

Удачи!