Задать вопрос
@Neogener

Что свидетельствует о том, что машина обучается, а не собирает новые данные и не сравнивает их с уже загруженными?

Есть история, про нейронную сеть которая анализировала кадры с видео съемки и определяла кота. Я слышал ее от Сербранта из яндекса. Он назвал это ии. Но коты изначально загружались - фото с котами. А почему сравнение фото и анализ схожести с уже имеющимися, это обучение?
Так что же такое обучение машинное? Без терминов, простыми словами, в чем логика?
Я, например, как человек - биологическое существо, котов определяю именно сравнивая с предыдущими котами и только так, при чем только по внешним признакам потому что мне с детства сказали, что "коты они вот такие вот". Остальное мое обучение происходило также, показывали варианты, говорили что это, а потом я определял остальное по схожести - по сути мне загрузили базу и параметры, то есть сам я нечего не придумывал.
Получается, обучение машинное вовсе не обучение как это принято воспринимать, а все стараяя добрая база данных объектов с параметрами на которые опираются при анализе других схожих(совсем с небольшим отличием в деталях)?
Если сравнить софт и ии, то это одно и тоже, но ии просто лучше продаеться чем "новая более сложная программа"?
  • Вопрос задан
  • 374 просмотра
Подписаться 3 Оценить 2 комментария
Решения вопроса 1
ipswitch
@ipswitch
IT-инженер
Я, будучи противником концепции "Аааа, ИИ наступает, скоро скайнет, ааа!!!", всегда неформально объясняю студентам так:

1. "Нейронная сеть" - это всего лишь такой продвинутый "фильтр", по сути - решето с гибким размером сетки. Её задача чаще всего - классификация, отбор, отделение условных "зёрен" от "плевел".

Это никакой не "искусственный разум"!

2. Для такого "отбора" нам надо как-то задать критерии, чем одно отличается от другого. Поскольку и мир неидеален, и зёрна неидеальны, и решето неидеально, нам также нужна "погрешность" - порог срабатывания, threshold, допуск, люфт, позволяющий пропустить "нестандартное, но ещё зерно".

3. Процесс подбора коэффициентов ("весов") по сути - тонкая настройка, калибровка, подгонка этого "решета".

4. Для упрощения подгонки применяются математические алгоритмы, по сути статистические, вероятностные, которые так или иначе усредняют подаваемый на вход массив возможных данных чтобы получить на выходе такие коэффициенты, при которых это "сито" будет работать с приемлемой (поддающейся оценке, известной, расчётной или требуемой для данной задачи) точностью.
Это и есть всё "обучение". По сути мы пишем алгоритм, который на основании измеренного разброса вариаций входных данных выдаёт нам такие коэффициенты, при которых сито будет пропускать большинство нужных "зёрен" и не пропускать большинство шелухи.

Замени эти слова на другие. Не "обучение", а "подбор коэффициентов", не "думает", а "фильтрует", не "нейронная сеть", а "нечёткий классификатор", и многое станет проще и понятнее.
Ответ написан
Пригласить эксперта
Ответы на вопрос 4
VoidVolker
@VoidVolker
Dark side eye. А у нас печеньки! А у вас?
Если кратко - то да. Все именно так и есть. И по факту - никакого настоящего ИИ тут нигде и нету на самом деле. Тупо имитация и красивые слова для маркетинга. С другой стороны: а что такое обучение? Процесс получения новых знаний? Из вне? Анализом имеющихся?
Ответ написан
Комментировать
@nirvimel
Из чего состоит кот?
- Из головы, туловища, лап и хвоста.
Из чего состоит стул, на котором сидит кот?
- Из сиденья, ножек и спинки.

Из чего состоит изображение кота?
- Из миллионов пикселов (точнее из миллионов цифровых значений, определяющих цвет каждого пиксела).
Из чего состоит изображение стула?
- Из миллионов пикселов, таких же, из которых состоит изображение кота, только по-другому расположенных.

Как отличить изображение кота от изображения пустого стула?
- (Вероятно) Надо сравнивать значение пикселов на разных изображениях.
А конкретно какие пикселы с какими сравнивать? По какой формуле?
- Я не знаю. Ни один человек не знает и не может знать такую формулу, которая бы от миллиона числовых аргументов (значений цветов пикселов) выдавала бы на выходе одно значение, простой ответ: изображен ли на этой картинке кот или стул.

Но как тогда человеческий мозг решает эту задачу?
- Человеческий мозг работает на нечеткой логике. Поэтому человеку может казаться, что в облаках и кляксах Роршаха скрываются образы знакомых предметов (ложноположительное срабатывание нейронной сети). Нейроны мозга изначально связаны между собой хаотично, и эта структура не способна выдать определенный ответ о принадлежности различных изображений к одной категории. Но в ходе обучения эта структура перестраивается таким образом, чтобы ответы на вопрос о принадлежности изображения определенной категории с каждым разом (шаг обучения) лучше соответствовали действительности. См. На чем основан принцип обучаемости нейронных сетей? . В процессе самого распознания не происходит никакого целенаправленного вспоминания или поиска информации в памяти (это занимало бы слишком много времени). Мозг взрослого человека выдает ответ "это (не) кошка" так же быстро, как и мозг новорожденного, различается лишь точность этих ответов и процент ошибок. Эта точность определяется только структурой связей между нейронами в сети, а никак не количеством различных кошек, которых человек может вспомнить сознательно. Доказательством этого может служить тот факт, что у людей, переживших потерю памяти, никак не меняется способность распознавать простые образы при том, что они не в состоянии вспомнить даже собственное имя.
Ответ написан
begemot_sun
@begemot_sun
Программист в душе.
ИИ, обучение - сродни алгоритм, настройка.
В любом компьютере работает алгоритм, т.о. неважно что внутри, нейронные сети или что-то другое. Если алгоритм способе накапливать и обобщать (читай сам себя настраивать), то это типа ИИ.
Линейная регресиия это тоже частный уровень ИИ.
И всякие аппроксимации с интерполяциями тоже.
А уж методы решения систем линейных и диф уравнений - сплошной ИИ.
Ах да, всякая калмановская фильтрация и теория управления - ИИ самое то.
Только никому это не придет в голову называть ИИ.

Всё это алгоритмы.
Ответ написан
Комментировать
xmoonlight
@xmoonlight
https://sitecoder.blogspot.com
Обучение - установка "весов" в узлах нейросети по заранее заданным входным и выходным параметрам.

Пример, обучения (ребёнка):
Итерация1: показываем кубик (вход) -> говорим "это кубик" (выход)
Действие НС: сравнивать пока не с чем - просто создаём узел: "кубик". (вес нейрона: 1.0)
Итерация2: показываем шарик (вход) -> говорим "это шарик" (выход)
Действие НС: сравнивается с кубиком: нейронами формируются отклонения визуального контура предмета на основе большой разницы визуальной и звуковой информации и, на основе полного несовпадения ни с какими предметами (похожесть узлов 1-го уровня), появляется новый "узел" в НС: "шарик". (вес нейрона: 1/[общее кол-во связей в пределах текущего узла]=1/2=0.5)
Итерация3: показываем параллелепипед (брусок) (вход) -> говорим "это кирпичик, как кубик, только вытянутый" (выход)
Действие НС: сравнивается с кубиком и шариком: нейронами сравниваются совокупности "весов" узлов кубика и шарика, определяется, что максимальное совпадение - это кубик, формируется разница признаков и снова появляется новая ветка от узла "кубик".

Делаем сравнение: на сколько кирпичик отличается от остальных предметов?

Допустим, результат сравнения на совпадение контурных линий и звуковой информации:
1. кирпичик vs шарик: <50%
2. кирпичик vs кубик: >=50%, (НО! СТРОГО МЕНЬШЕ 100%)
Т.е., мы видим, что кирпичик - вовсе не шарик, а больше похож на "недокубик") и в связи с этим, строим новую ветку от узла "кубик".

Было:
1-й уровень (1=100%): 0.5(шарик), 0.5(кубик).
Стало:
1-й уровень (1=100%): шарик: 0.5, кубик: 0.5
2-й уровень (0.5=100%): кирпичик: 0.5
(3-й: 0.25=100% и т.д.)
Сумма весов от любого из "узлов" 1-го уровня до любого "листа" в "дереве" - всегда равна единице!

Таким способом, мы постепенно строим дерево связей.
Вот как-то так обучение и происходит: опорные эталонные признаки (обучение), сравнение с имеющимися из "дерева" знаний и добавление нового знания в нужную ветку дерева.

Сами связи - привязываем к времени с постепенным вычитание весов узлов дерева до нуля и получаем эффект забывания (или "высвобождения" узлов = памяти), если информация периодически не обновляется. При обновлении информации - обновляем всю ветку до листа максимальным весом: "повторенье - мать ученья".
Ответ написан
Комментировать
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы