Наши проекты:
Журнал · Discuz!ML · Wiki · DRKB · Помощь проекту |
||
ПРАВИЛА | FAQ | Помощь | Поиск | Участники | Календарь | Избранное | RSS |
[98.80.143.34] |
|
Сообщ.
#1
,
|
|
|
Меня интересует вопрос глобальный оптимизации в плане прикладного обучения. Какие есть к этому подходы?
О проблематики. Если у нас мало данных. И мы обучим нашу систему, то она не сможет хорошо работать с известными образцами, и плохо будет работать с неизвестными. Проблема хорошо известна на примере МНК. Если заставить её 100% соответствовать исходным данным, то мы получим зелёную кривую. Она хорошо проходит через фиолетовые точки с известными данными, но имеет очень большие выбросы по серёдке. Как мне видится лучше с этим справляется жёлтая линия сделанная на основе некоторой эвристики. Как известно глобальная оптимизация и есть такая эвристика. Идея взять большие данные не приветствуется. Современные тенденции глубинного обучения направлены на сжатие. И у его принципа компонентного анализа тоже. Поэтому встаёт вопрос о выборе эвристики для этих методов которые будут сродни глобальной оптимизации для оптимизации полинома. Прикреплённый файл____________________.png (28,61 Кбайт, скачиваний: 510) |
Сообщ.
#2
,
|
|
|
В каких случаях преподолгают использовать
1) регуляризацию 2) уменьшение размерности задачи 3) увеличение количества данных |
Сообщ.
#3
,
|
|
|
Цитата Pavia @ Откуда такая информация? Идея взять большие данные не приветствуется. Современные тенденции глубинного обучения направлены на сжатие. |
Сообщ.
#4
,
|
|
|
Цитата negram @ Цитата Pavia @ Откуда такая информация? Идея взять большие данные не приветствуется. Современные тенденции глубинного обучения направлены на сжатие. хорошоий вопрос? И на сжатие чего? |
Сообщ.
#5
,
|
|
|
ChatGPT не понял вашего вопроса.
Реньше были вопросы к "армянскому радио" теперь вопросы к ChatGPT |