Содержание
18 отношения: Перцептрон, Перекрёстная энтропия, Обучение с учителем, Оптимизация (математика), Наивный байесовский классификатор, Скалярное произведение, Терм-документная матрица, Метод Ньютона, Метод обратного распространения ошибки, Метод опорных векторов, Задача классификации, Выпуклая функция, Градиентный спуск, Дискриминантный анализ, Линейная сепарабельность, Линейная регрессия, Линейное отображение, Логистическая регрессия.
- Алгоритмы классификации
- Статистическая классификация
Перцептрон
Логическая схема перцептрона с тремя выходами Перцептро́н, или персептронВариант «перцептрон» — изначальный, используется в переводе книги Розенблатта (1965), также в справочнике: Вариант «персептрон» встречается чаще, он возник при переводе книги Минского и Пейперта (1971); см.
Посмотреть Линейный классификатор и Перцептрон
Перекрёстная энтропия
В теории информации перекрёстная энтропия между двумя распределениями вероятностей измеряет среднее число бит, необходимых для опознания события из набора возможностей, если используемая схема кодирования базируется на заданном распределении вероятностей q, вместо «истинного» распределения p.
Посмотреть Линейный классификатор и Перекрёстная энтропия
Обучение с учителем
Обуче́ние с учи́телем (Supervised learning) — один из способов машинного обучения, в ходе которого испытуемая система принудительно обучается с помощью примеров «стимул-реакция».
Посмотреть Линейный классификатор и Обучение с учителем
Оптимизация (математика)
Оптимизация — в математике, информатике и исследовании операций задача нахождения экстремума (минимума или максимума) целевой функции в некоторой области конечномерного векторного пространства, ограниченной набором линейных и/или нелинейных равенств и/или неравенств.
Посмотреть Линейный классификатор и Оптимизация (математика)
Наивный байесовский классификатор
Наи́вный ба́йесовский классифика́тор — простой вероятностный классификатор, основанный на применении теоремы Байеса со строгими (наивными) предположениями о независимости.
Посмотреть Линейный классификатор и Наивный байесовский классификатор
Скалярное произведение
Скаля́рное произведе́ние (иногда внутреннее произведение) — операция над двумя векторами, результатом которой является число (когда рассматриваются векторы, числа часто называют скалярами), не зависящее от системы координат и характеризующее длины векторов-сомножителей и угол между ними.
Посмотреть Линейный классификатор и Скалярное произведение
Терм-документная матрица
Терм-документная матрица представляет собой математическую матрицу, описывающую частоту терминов, которые встречаются в коллекции документов.
Посмотреть Линейный классификатор и Терм-документная матрица
Метод Ньютона
Метод Ньютона, алгоритм Ньютона (также известный как метод касательных) — это итерационный численный метод нахождения корня (нуля) заданной функции.
Посмотреть Линейный классификатор и Метод Ньютона
Метод обратного распространения ошибки
Метод обратного распространения ошибки (backpropagation) — метод вычисления градиента, который используется при обновлении весов многослойного перцептрона.
Посмотреть Линейный классификатор и Метод обратного распространения ошибки
Метод опорных векторов
Метод опорных векторов (SVM, support vector machine) — набор схожих алгоритмов обучения с учителем, использующихся для задач классификации и регрессионного анализа.
Посмотреть Линейный классификатор и Метод опорных векторов
Задача классификации
Задача классифика́ции — формализованная задача, в которой имеется множество объектов (ситуаций), разделённых некоторым образом на классы.
Посмотреть Линейный классификатор и Задача классификации
Выпуклая функция
Выпуклая функция, её график выделен синим и надграфик закрашен зелёным. Выпуклая функция (выпуклая вниз функция) — функция, для которой любой отрезок между двумя любыми точками графика функции в векторном пространстве лежит не ниже соответствующей дуги графика.
Посмотреть Линейный классификатор и Выпуклая функция
Градиентный спуск
Градиентный спуск — метод нахождения локального экстремума (минимума или максимума) функции с помощью движения вдоль градиента.
Посмотреть Линейный классификатор и Градиентный спуск
Дискриминантный анализ
Дискримина́нтный ана́лиз — раздел вычислительной математики, представляющий набор методов статистического анализа для решения задач распознавания образов, который используется для принятия решения о том, какие переменные разделяют (т.е.
Посмотреть Линейный классификатор и Дискриминантный анализ
Линейная сепарабельность
Два множества точек в двумерном пространстве называются линейно сепарабельными (линейно разделимыми), если они могут быть полностью отделены единственной прямой.
Посмотреть Линейный классификатор и Линейная сепарабельность
Линейная регрессия
Линейная регрессия (Linear regression) — используемая в статистике регрессионная модель зависимости одной (объясняемой, зависимой) переменной y от другой или нескольких других переменных (факторов, регрессоров, независимых переменных) x с линейной функцией зависимости.
Посмотреть Линейный классификатор и Линейная регрессия
Линейное отображение
Лине́йное отображе́ние, лине́йный опера́тор — обобщение линейной числовой функции (точнее, функции y.
Посмотреть Линейный классификатор и Линейное отображение
Логистическая регрессия
Логистическая регрессия или логит-регрессия (logit model) — это статистическая модель, используемая для предсказания вероятности возникновения некоторого события путём подгонки данных к логистической кривой.
Посмотреть Линейный классификатор и Логистическая регрессия
См. также
Алгоритмы классификации
- AdaBoost
- BrownBoost
- C4.5
- ID3 (алгоритм)
- Locality-sensitive hashing
- Вероятностный латентно-семантический анализ
- Дискриминантный анализ
- Задача классификации
- Задача поиска ближайшего соседа
- Линейный классификатор
- Метод k ближайших соседей
- Метод группового учёта аргументов
- Метод опорных векторов
- Многослойный перцептрон Румельхарта
- Наивный байесовский классификатор
- Нейронная сеть
- Перцептрон
- Пробит-регрессия
- Рассуждения на основе прецедентов
- Сеть радиально-базисных функций