<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Computer Vision on Блог</title><link>https://svfcode.github.io/tags/computer-vision/</link><description>Recent content in Computer Vision on Блог</description><generator>Hugo -- gohugo.io</generator><language>ru</language><lastBuildDate>Thu, 12 Mar 2026 00:00:00 +0000</lastBuildDate><atom:link href="https://svfcode.github.io/tags/computer-vision/index.xml" rel="self" type="application/rss+xml"/><item><title>Необходимая математика — обзор</title><link>https://svfcode.github.io/p/math-essentials-overview/</link><pubDate>Thu, 12 Mar 2026 00:00:00 +0000</pubDate><guid>https://svfcode.github.io/p/math-essentials-overview/</guid><description>&lt;img src="https://svfcode.github.io/p/math-essentials-overview/cover.jpg" alt="Featured image of post Необходимая математика — обзор" />&lt;p>Это вводная статья цикла «Необходимая математика» — обзор того, какие разделы математики нужны для работы с ИИ и машинным обучением и для чего именно они используются.&lt;/p>
&lt;h2 id="линейная-алгебра">Линейная алгебра&lt;/h2>
&lt;p>&lt;strong>Что нужно:&lt;/strong> векторы, матрицы, умножение матриц, линейные преобразования, скалярное произведение, норма вектора, собственные числа и векторы (на продвинутом уровне).&lt;/p>
&lt;p>&lt;strong>Зачем:&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>Векторы — базовый способ представления данных: слово, изображение, «мысль» модели кодируются векторами чисел&lt;/li>
&lt;li>Матрицы — все операции нейросети (свёртки, внимание, линейные слои) сводятся к умножению матриц&lt;/li>
&lt;li>Линейные преобразования — понимание, как слой «перемешивает» и комбинирует признаки&lt;/li>
&lt;li>Без линейной алгебры невозможно читать формулы в статьях и понимать, что делает код (например, &lt;code>W @ x&lt;/code> — это умножение матрицы весов на вектор входа)&lt;sup id="fnref:1">&lt;a href="#fn:1" class="footnote-ref" role="doc-noteref">1&lt;/a>&lt;/sup>&lt;/li>
&lt;/ul>
&lt;h2 id="пределы-и-производные">Пределы и производные&lt;/h2>
&lt;p>&lt;strong>Что нужно:&lt;/strong> пределы функций, производные, частные производные, градиент, правило цепочки (chain rule), оптимизация функций.&lt;/p>
&lt;p>&lt;strong>Зачем:&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>Нейросеть обучается через градиентный спуск: мы двигаем веса в направлении, где ошибка уменьшается&lt;/li>
&lt;li>Градиент — это вектор частных производных: указывает, куда «подкрутить» каждый параметр&lt;/li>
&lt;li>Правило цепочки лежит в основе backpropagation — алгоритма, который автоматически считает градиенты для всех слоёв&lt;/li>
&lt;li>Без анализа нельзя понять, откуда берутся обновления весов и почему обучение вообще работает&lt;/li>
&lt;/ul>
&lt;h2 id="теория-вероятностей-и-статистика">Теория вероятностей и статистика&lt;/h2>
&lt;p>&lt;strong>Что нужно:&lt;/strong> распределения (нормальное, Бернулли и др.), математическое ожидание, дисперсия, условная вероятность, теорема Байеса, максимизация правдоподобия (MLE).&lt;/p>
&lt;p>&lt;strong>Зачем:&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>Модели часто формулируются вероятностно: «какова вероятность следующего слова», «насколько уверена модель в ответе»&lt;/li>
&lt;li>Loss-функции часто выводятся из правдоподобия (cross-entropy, MSE и др.)&lt;/li>
&lt;li>Статистика нужна для работы с данными: нормализация, оценка качества, понимание метрик ( precision, recall, AUC)&lt;/li>
&lt;li>Байес — основа многих классических алгоритмов и способа «обновлять убеждения» на новых данных&lt;/li>
&lt;/ul>
&lt;h2 id="computer-vision-cv">Computer Vision (CV)&lt;/h2>
&lt;p>&lt;strong>Дополнительно к общему минимуму:&lt;/strong> дискретная свёртка (2D), аффинные и проективные преобразования, базовые понятия геометрии изображений (калибровка камеры, эпиполярная геометрия).&lt;/p>
&lt;p>&lt;strong>Зачем:&lt;/strong>&lt;/p>
&lt;ul>
&lt;li>Свёртка — ядро работы CNN: понять, как фильтр «скользит» по изображению и что такое kernel, padding, stride&lt;/li>
&lt;li>Аффинные преобразования (поворот, масштаб, сдвиг) — для аугментаций и понимания инвариантности&lt;/li>
&lt;li>Проективная геометрия и гомографии — для задач стереозрения, 3D-реконструкции, AR&lt;/li>
&lt;li>Для классических методов (SIFT, optical flow) полезны производные изображения, градиенты по пикселям&lt;/li>
&lt;/ul>
&lt;h2 id="опционально-но-полезно">Опционально, но полезно&lt;/h2>
&lt;ul>
&lt;li>&lt;strong>Теория информации&lt;/strong> (энтропия, кросс-энтропия) — углубляет понимание loss-функций и сжатия данных&lt;/li>
&lt;li>&lt;strong>Выпуклая оптимизация&lt;/strong> — для понимания, когда задача «хорошая» и когда SGD сходится&lt;/li>
&lt;li>&lt;strong>Дифференциальная геометрия&lt;/strong> — для продвинутых тем (диффузионные модели, представления)&lt;/li>
&lt;/ul>
&lt;h2 id="практический-минимум">Практический минимум&lt;/h2>
&lt;p>Чтобы уверенно читать статьи и код:&lt;/p>
&lt;ul>
&lt;li>Уметь умножать матрицы и понимать, что делает линейный слой&lt;/li>
&lt;li>Понимать, что такое градиент и зачем он в обучении&lt;/li>
&lt;li>Знать базовые распределения и метрики качества&lt;/li>
&lt;/ul>
&lt;p>Остальное можно добирать по мере необходимости — когда встретится в конкретной задаче или статье.&lt;/p>
&lt;div class="footnotes" role="doc-endnotes">
&lt;hr>
&lt;ol>
&lt;li id="fn:1">
&lt;p>&lt;code>W @ x&lt;/code> — в Python (NumPy, PyTorch) оператор матричного умножения: матрица весов W умножается на входной вектор x. Результат — выходной вектор. Линейный слой по сути считает &lt;code>W·x + b&lt;/code>.&amp;#160;&lt;a href="#fnref:1" class="footnote-backref" role="doc-backlink">&amp;#x21a9;&amp;#xfe0e;&lt;/a>&lt;/p>
&lt;/li>
&lt;/ol>
&lt;/div></description></item></channel></rss>