Входной слой (Input layer) —это первый слой в нейронной сети, который принимает входящие сигналы и передает их на последующие уровни. [ 22 22 Входной слой [Электронный ресурс] //mcs.mail.ru URL: https://naukatehnika.com/predvzyatost-iskusstvennogo-intellekta.html (дата обращения: 07.07.2022)
]
Выбор действия (Action selection) – это процесс, включающий алгоритм, как разработанная интеллектуальная система будет реагировать на данную проблему. Обычно это область, изучаемая в психологии, робототехнике и искусственном интеллекте. Выбор действий является синонимом принятия решений и поведенческого выбора. Собранные данные исследуются и разбиваются для того, чтобы можно было адаптировать их к искусственным системам, таким как робототехника, видеоигры и программирование искусственного интеллекта.
Выбор переменных (Feature selection) – это выбор признаков, также известный как выбор переменных, выбор атрибутов или выбор подмножества переменных, представляет собой процесс выбора подмножества соответствующих признаков (переменных, предикторов) для использования в построении модели.
Выборка (Sampling) – это использование при анализе информации не всего объема данных, а только их части, которая отбирается по определенным правилам (выборка может быть случайной, стратифицированной, кластерной и квотной).
Выборка кандидатов (Candidate sampling) —это оптимизация времени обучения, при которой вероятность рассчитывается для всех положительных меток, но только для случайной выборки отрицательных меток. Например, если нам нужно определить, является ли входное изображение биглем или ищейкой, нам не нужно указывать вероятности для каждого примера, не связанного с собакой.
Выбросы( Outliers) – это точки данных, которые значительно отличаются от других, присутствующих в данном наборе данных. Наиболее распространенные причины выбросов в наборе данных: Ошибки ввода данных, Ошибка измерения, Ошибки эксперимента, Преднамеренные ошибки, Ошибки обработки данных, Ошибки выборки, Естественный выброс.
Вывод (Inference)в искусственном интеллекте и машинном обучении – это составление прогнозов путем применения обученной модели к немаркированным примерам.
Выделение признаков (Feature extraction) – это разновидность абстрагирования, процесс снижения размерности, в котором исходный набор исходных переменных сокращается до более управляемых групп признаков для дальнейшей обработки, оставаясь при этом достаточным набором для точного и полного описания исходного набора данных. Выделение признаков используется в машинном обучении, распознавании образов и при обработке изображений. Выделение признаков начинает с исходного набора данных, выводит вторичные значения (признаки), для которых предполагается, что они должны быть информативными и не должны быть избыточными, что способствует последующему процессу обучения машины и обобщению шагов, а в некоторых случаях ведёт и к лучшей человеческой интерпретацией данных.
Выполнение графа (Graph execution) – это среда программирования TensorFlow, в которой программа сначала строит граф, а затем выполняет весь или часть этого графа. Выполнение графа – это режим выполнения по умолчанию в TensorFlow 1.x.
Выполнимость (Satisfiability). В математической логике – это элементарные понятия семантики. Формула выполнима, если можно найти интерпретацию (модель), которая делает формулу истинной. Формула действительна, если все интерпретации делают ее истинной. Противоположностями этих понятий являются невыполнимость и недействительность, то есть формула невыполнима, если ни одна из интерпретаций не делает формулу истинной, и недействительна, если какая-либо такая интерпретация делает формулу ложной.
Выпрямленный линейный блок( Rectified Linear Unit) – это блок, использующий функцию выпрямителя в качестве функции активации.
Выпуклая оптимизация (Convex optimization) – это процесс использования математических методов, таких как градиентный спуск, для нахождения минимума выпуклой функции. Многие исследования в области машинного обучения были сосредоточены на формулировании различных задач выпуклой оптимизации и более эффективном решении этих проблем.
Выпуклая функция (Convex function) – это функция, в которой область над графиком функции представляет собой выпуклое множество. Прототип выпуклой функции имеет форму буквы U. Строго выпуклая функция имеет ровно одну точку локального минимума. Классические U-образные функции являются строго выпуклыми функциями. Однако некоторые выпуклые функции (например, прямые) не имеют U-образной формы. Многие распространенные функции потерь, являются выпуклыми функциями: L2 loss, Log Loss, L1 regularization, L2 regularization. Многие варианты градиентного спуска гарантированно находят точку, близкую к минимуму строго выпуклой функции. Точно так же многие варианты стохастического градиентного спуска имеют высокую вероятность (хотя и не гарантию) нахождения точки, близкой к минимуму строго выпуклой функции. Сумма двух выпуклых функций (например, L2 loss + L1 regularization) является выпуклой функцией. Глубокие модели никогда не бывают выпуклыми функциями. Примечательно, что алгоритмы, разработанные для выпуклой оптимизации, в любом случае имеют тенденцию находить достаточно хорошие решения в глубоких сетях, даже если эти решения не гарантируют глобальный минимум.
Читать дальше