Neimarker перешел на архитектуру Transformers⚡️

Neimarker перешел на архитектуру Transformers⚡️

На прикрепленных графиках вы видите сравнение двух поколений нашего ИИ. Новая модель не просто быстрее — она показывает двукратный рост точности (mAP 31.8% против 15.5%) за в 6 раз меньшее время обучения. 

 

 

 

Почему мы отказались от классических сверточных сетей (CNN) в пользу Трансформеров?

 

 ⚙️ Техническая причина:

 Глобальный контекст Сверточные сети ограничены размером фильтра («видят» картинку кусочками). Чтобы связать удаленные части изображения, им нужны сотни слоев. Трансформеры используют механизм Self-Attention и обладают глобальным рецептивным полем. Они обрабатывают всё изображение целиком с первого слоя, выстраивая сложные зависимости между пикселями (Global Context) без потери пространственной информации.

 🏗 Почему это критически важно для поиска дефектов: 

Фильтрация «шума» текстур Бетон и кирпич имеют сложную фактуру, которую CNN часто путают с дефектами. Трансформер семантически оценивает каждый пиксель в контексте окружения, безошибочно отделяя целевой сигнал (трещину) от естественной шероховатости материала и теней. 

Целостность протяженных объектов Трещины — это длинные, линейные структуры. CNN, работая локально, часто «рвут» их на фрагменты. Трансформер, благодаря учету длинных зависимостей (Long-range dependencies), воспринимает дефект как единый топологический объект, даже если он тонкий и занимает весь кадр. 

 

 

Итог: Переход на новую архитектуру позволил кардинально снизить количество ложных срабатываний и детектировать неочевидные дефекты, которые старая модель игнорировала.

Опубликовано: Ноя. 24, 2025, 10:30 д.п. Просмотры: 14

Комментарии

Пока нет комментариев.

Назад к списку новостей



Свяжитесь с нами