Нужны ли негативные примеры при классификации изображений?

Есть сеть EfficientNet, обученная на большом ImageNet.
Задача переобучить сеть классифицировать изображения на 3 свои класса.

Есть пример с переобучением на классификацию «кошки / собаки».

Но будут попадаться и изображения, не содержащие ни одного из 3 заданных идентифицируемых объектов – случайные снимки.

Вопрос: при переобучении сети надо ли её обучать на 4 классах, добавив изображения, не содержащие искомые объекты?

Изначально мне передали сеть именно так обученную на 4 классах, включая 4-й класс «НЕТ». На выходе получаются 4 вероятности. Из них берётся максимальная. Собраны папки фотографий для каждого из 3 классов и 4-я папка со случайными снимками, не содержащими ни одного из 3 объектов.

Сомневаюсь, что надо обучать на классе «НЕТ».
Как поступать, если брать только 3 класса – задать некий порог, и если ни под одному классу нет уверенности выше, скажем, 90%, то считать, что картинка не содержит искомое?
  • Вопрос задан
  • 57 просмотров
Пригласить эксперта
Ответы на вопрос 1
DanilBaibak
@DanilBaibak
Machine Learning engineer
Ответ зависит от того, как с какими изображениями сеть будет работать в продакшене.

Вариант, когда обучаете на 3х классах и добавите логику, которая проверяет вероятности (если вероятность для всех 3х классов ниже threshold, то 4й класс) вполне рабочий.
Ответ написан
Ваш ответ на вопрос

Войдите, чтобы написать ответ

Похожие вопросы