Научная статья на тему 'УЛУЧШЕНИЕ КЛАССИФИКАЦИИ РАКА МОЛОЧНОЙ ЖЕЛЕЗЫ С ПОМОЩЬЮ ИННОВАЦИЙ ГЛУБОКОГО ОБУЧЕНИЯ'

УЛУЧШЕНИЕ КЛАССИФИКАЦИИ РАКА МОЛОЧНОЙ ЖЕЛЕЗЫ С ПОМОЩЬЮ ИННОВАЦИЙ ГЛУБОКОГО ОБУЧЕНИЯ Текст научной статьи по специальности «Компьютерные и информационные науки»

CC BY
2
0
i Надоели баннеры? Вы всегда можете отключить рекламу.
Ключевые слова
Глубокое обучение / свёрточные нейронные сети / бинарная классификация / модуль свёрточного блока внимания (CBAM) / рак молочной железы / инвазивная протоковая карцинома (IDC) / гистопатологическое изображение (HP) / Deep learning / convolutional neural networks / binary classification / convolutional block attention module (CBAM) / breast cancer / invasive ductal carcinoma (IDC) / histopathology image (HP)

Аннотация научной статьи по компьютерным и информационным наукам, автор научной работы — Хаодун Чэн, Чжоу Вэй, Потехин Вячеслав Витальевич, Кожубаев Юрий Нургалиевич, Карпухин Виктор Сергеевич

Рак молочной железы является основной причиной смерти среди женщин: по данным Американского онкологического общества, ежегодно от него умирает более 40 000 человек. Учитывая критическую важность раннего выявления заболевания для улучшения исходов, инновации в диагностических технологиях имеют решающее значение. В данной статье представлена разработка модели ReAttentionNet, которая является усовершенствованием архитектуры ResNet50, интегрированной с модулем свёрточного блочного внимания (CBAM). Эта модель специально разработана для классификации гистопатологических изображений как злокачественных или доброкачественных при 40-кратном увеличении. Демонстрируя выдающиеся показатели производительности 99,25 % точности, 100 % предсказуемости, 98,92 % запоминания и 99,56 % F1-показателей модель ReAttentionNet значительно превосходит существующие методы, что подчеркивает ее потенциал в качестве мощного инструмента для раннего обнаружения рака молочной железы. Дальнейшая проверка данной модели на наборе данных IDC с использованием основополагающего набора данных BreakHis подтверждает ее адаптируемость и потенциал для использования в реальных клинических условиях, создавая основу для трансформационных достижений в практике раннего выявления рака молочной железы.

i Надоели баннеры? Вы всегда можете отключить рекламу.

Похожие темы научных работ по компьютерным и информационным наукам , автор научной работы — Хаодун Чэн, Чжоу Вэй, Потехин Вячеслав Витальевич, Кожубаев Юрий Нургалиевич, Карпухин Виктор Сергеевич

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.
i Надоели баннеры? Вы всегда можете отключить рекламу.

IMPROVING BREAST CANCER CLASSIFICATION WITH DEEP LEARNING INNOVATIONS

Breast cancer is the leading cause of death among women, accounting for more than 40,000 deaths each year according to the American Cancer Society. Given the critical importance of early detection of the disease to improve outcomes, innovations in diagnostic technologies are critical. This paper presents the development of ReAttentionNet, an improvement on the ResNet50 architecture integrated with a convolutional block attention module (CBAM). This model is specifically designed to classify histopathological images as malignant or benign at 40x zoom-in. With outstanding performance of 99.25% accuracy, 100% predictability, 98.92% recall, and 99.56% F1-score, ReAttentionNet significantly outperforms existing methods, highlighting its potential as a powerful tool for early breast cancer detection. Further validation of this model on the IDC dataset using the foundational BreakHis dataset confirms its adaptability and potential for use in real-world clinical settings, laying the foundation for transformative advances in breast cancer early detection practice.

Текст научной работы на тему «УЛУЧШЕНИЕ КЛАССИФИКАЦИИ РАКА МОЛОЧНОЙ ЖЕЛЕЗЫ С ПОМОЩЬЮ ИННОВАЦИЙ ГЛУБОКОГО ОБУЧЕНИЯ»

УДК 621.313.323

DOI: 10.24412/2071-6168-2024-12-248-249

УЛУЧШЕНИЕ КЛАССИФИКАЦИИ РАКА МОЛОЧНОЙ ЖЕЛЕЗЫ С ПОМОЩЬЮ ИННОВАЦИЙ

ГЛУБОКОГО ОБУЧЕНИЯ

Хаодун Чэн, Чжоу Вэй, В.В. Потехин, Ю.Н. Кожубаев, В.С. Карпухин

Рак молочной железы является основной причиной смерти среди женщин: по данным Американского онкологического общества, ежегодно от него умирает более 40 000 человек. Учитывая критическую важность раннего выявления заболевания для улучшения исходов, инновации в диагностических технологиях имеют решающее значение. В данной статье представлена разработка модели ReAttentionNet, которая является усовершенствованием архитектуры ResNet50, интегрированной с модулем свёрточного блочного внимания (CBAM). Эта модель специально разработана для классификации гистопатологических изображений как злокачественных или доброкачественных при 40-кратном увеличении. Демонстрируя выдающиеся показатели производительности - 99,25 % точности, 100 % предсказуемости, 98,92 % запоминания и 99,56 % F1-показателей - модель ReAttentionNet значительно превосходит существующие методы, что подчеркивает ее потенциал в качестве мощного инструмента для раннего обнаружения рака молочной железы. Дальнейшая проверка данной модели на наборе данных IDC с использованием основополагающего набора данных BreakHis подтверждает ее адаптируемость и потенциал для использования в реальных клинических условиях, создавая основу для трансформационных достижений в практике раннего выявления рака молочной железы.

Ключевые слова: Глубокое обучение, свёрточные нейронные сети, бинарная классификация, модуль свёрточного блока внимания (CBAM), рак молочной железы, инвазивная протоковая карцинома (IDC), гистопатологиче-ское изображение (HP).

Согласно докладу Всемирной организации здравоохранения (ВОЗ), рак молочной железы является наиболее распространенным онкологическим заболеванием среди женщин, причем рост заболеваемости наблюдается почти во всех регионах мира. Еще больше усиливают эту обеспокоенность недавние данные Американского онкологического общества, согласно которым от рака груди умерло более 40 000 женщин и около 600 мужчин [1]. Медицинские специалисты утверждают, что лечение на ранней стадии имеет решающее значение для улучшения прогноза пациента и снижения рисков, связанных с этим заболеванием, что подчеркивает важность ранней диагностики [2].

Для раннего выявления существуют различные методы обследования, такие как маммография, рентгенография, ультразвуковое исследование (УЗИ), анализ гистопатологических изображений (АГ), порционно-эмиссионная томография (ПЭТ), компьютерная томография (КТ), измерение температуры и магнитно-резонансная томография (МРТ) [3-5].

В данном исследовании используются гистопатологические изображения, поскольку они признаны эталоном для диагностики рака [6]. Это объясняется тем, что гистопатологические изображения дают представление о микроархитектуре ткани. Кроме того, они позволяют выявить специфические характеристики заболевания, которые невозможно определить другими способами [7].

Гистопатология - это практика извлечения образца ткани из подозрительного участка человеческого тела для всестороннего анализа и оценки медицинскими специалистами [8], процедура, известная как биопсия. Для получения гистопатологических изображений (ГП) образцы биопсии помещаются на предметные стекла и окрашиваются гематоксилином и эозином (H&E) для микроскопического исследования [9].

Затем патологоанатомы тщательно изучают такие ключевые аспекты, как распределение и расположение клеток ткани, их форма и структура, расположение клеточных ядер, а также любые аномалии, указывающие на рак. Например, в доброкачественных опухолях клетки обычно выглядят однородными и похожими на здоровые клетки ткани, из которой они произошли. В злокачественных опухолях может наблюдаться значительная вариабельность, при этом некоторые клетки кажутся намного крупнее или необычной формы по сравнению с другими. Однако интерпретация изображений ГП требует значительных затрат времени и опыта. Кроме того, стандартный протокол ГП для диагностики рака молочной железы занимает много времени и позволяет получить сотни изображений, что создает значительные проблемы с точки зрения эффективности и интерпретации.

В ответ на эти проблемы недавние достижения в области искусственного интеллекта, в частности методы глубокого обучения, показали перспективность повышения эффективности и точности гистопатологического анализа [10-11]. В данном исследовании такие технологии используются для разработки нейросетевой модели, способствующей автоматизации диагностического процесса, тем самым повышая эффективность и снижая зависимость от тщательного ручного исследования.

Обзор схожих исследований. Диагностика рака молочной железы быстро превратилась из ручного, трудоемкого процесса в сложные автоматизированные системы, использующие глубокое обучение. Среди этих достижений наша работа представляет подход, сочетающий глубокие сверточные нейронные сети (CNN), трансферное обучение и механизмы внимания, чтобы установить новые стандарты точности и эффективности.

В ранних исследованиях, таких как [12], CNN использовались для обнаружения инвазивной протоковой карциномы (IDC), что позволило достичь точности 89,56 %. Эта тенденция продолжилась с использованием модели AlexNet в [13], которая показала точность 90,28 %. Была подчеркнута необходимость в больших наборах данных и эффективных архитектурах, что привело к использованию трансферного обучения, предложенного в [14] для решения этих проблем.

В работах [15-16] были исследованы архитектуры AlexNet и GoogleNet, точность которых достигала 97 %. В последующих исследованиях были представлены гибридные модели, такие как AlexNet-VGG-19 в [17], и решены проблемы обучения с помощью остаточных сетей (ResNet), как показано в [18-19], что позволило достичь точности, близкой к 98,7 %.

В недавних работах [20-21] использовались механизмы внимания и GAN, соответственно, что позволило довести точность до 99 %. Эти исследования подчеркивают потенциал таких передовых методов не только в повышении точности, но и в работе с различными уровнями увеличения и типами рака в таких наборах данных, как BreakHis.

Механизмы внимания, в частности, продемонстрировали значительные перспективы. В работах [22-24] модули внимания, такие как CBAM, были интегрированы с ResNet для повышения точности модели, что позволило достичь точности более 99 %. Такой фокус на релевантных признаках изображения имеет решающее значение для повышения точности диагностики.

Данное исследование опирается на вышеописанные выводы, разрабатывая гибридную модель, включающую глубокие архитектуры CNN [25-27], CBAM, трансферное обучение и методы регуляризации, направленные на классификацию гистопатологических изображений при 40-кратном увеличении. С точностью 99,25 % наша модель подчеркивает важность интеграции различных стратегий машинного обучения для улучшения классификации рака молочной железы.

Этот прогресс закладывает основу для будущих исследований по использованию еще более сложных методов машинного обучения для дальнейшего совершенствования диагностических процессов в медицине.

Экспериментальные данные. Набор данных BreakHis, разработанный в сотрудничестве с лабораторией P&D в Паране (Бразилия), представляет собой обширную коллекцию гистопатологических изображений рака молочной железы. Она широко известна благодаря своему тщательному охвату и доступности, что делает ее фундаментальным ресурсом для медицинских исследований.

В таблице 1 показано распределение образцов при 40-кратном увеличении, включая разделение на обучающие и тестовые подмножества.

Таблица 1

Разделение набора данных на обучающий и тестовый_

Training set Testing set

Benign 500 125

Malignant 1096 274

Total 1596 399

Более того, как видно на рисунке 1, различение доброкачественных и злокачественных биоптатов - задача для специалистов-патологоанатомов, требующая высокой точности.

benign 40х malignant 40х

-, ■■. ^ Як

Рис. 1. Доброкачественные и злокачественные образцы при 40-кратном увеличении

Именно в таких сценариях возможности глубокого обучения демонстрируют свой потенциал, предоставляя инструменты, которые могут помочь в решении этой сложной задачи классификации [28-30].

Основа предлагаемой модели. Основу модели составляют свёрточные остаточные нейронные сети Яе8№1;-18, Яе8№1;-34 и ResNet-50, которые используются для отображения существенных признаков изображений рака молочной железы на карте признаков.

На рисунке 3 показано, как остаточные связи соединяют выход предыдущих слоев с новыми слоями, усиливая поток информации через сеть. Кроме того, уравнение 1 указывает на фундаментальную работу остаточного блока в нейронных сетях.

Fix)

* r-

Weight Layer

, relu

Weight I.aiTfi'

relu

Рис. 2. Структурный блок остаточного обучения

249

у = F(x, {W}) + х (1)

где х - это вход блока; F представляет операции, выполняемые внутри блока (свертка, активация); {Wi} представляет веса слоев блока; у представляет собой выход блока.

Такая конфигурация позволяет напрямую добавлять вход х к выходу функции преобразования F, что помогает смягчить проблему исчезающего градиента, позволяя градиентам проходить напрямую через пропускные соединения.

Модуль внимания сверточного блока. В попытке воспроизвести человеческое обучение важно научить компьютер различать и определять приоритеты значимых признаков, тем самым повышая способность модели более точно классифицировать изображения и увеличивая ее общую эффективность.

Модуль внимания сверточного блока (CBAM), служащий усовершенствованным механизмом внимания в свёрточных нейронных сетях, оптимизирует карты признаков, созданные предыдущими слоями, посредством тщательного процесса. Он включает в себя генерацию карт внимания по двум ключевым измерениям - канальному и пространственному, которые затем применяются к предварительной карте признаков.

Модуль канального внимания (CAM). Давая карту признаков х с размерами С х H х W, выходная карта у после применения внимания канала может быть выражена как:

у = х®Мс(х\ {Wc}) (2)

В этой формуле: с - функция карты внимания канала, которая зависит от входной карты признаков х и набора весов {Wc}, характерных для механизма внимания канала; ® представляет собой поэлементное умножение, которое транслируется по пространственным измерениям.

Карта канального внимания Мс составляется следующим образом:

Мс(х\ {Wc}) = a(MLP(MaxPool(x);{Wc})) (3)

где MaxPool(x) - это глобальная операция объединения максимумов, применяемая к х, которая сводит каждую карту признаков С х H х W к вектору С х 1 х 1; а представляет сигмоидную функцию, обеспечивающую механизм разделения, выводя значения между 0 и 1; MLP - многослойный перцептрон, который обучается межканальным связям, параметризованным весами {Wc}.

Модуль пространственного внимания (SAM). Если предположить, что у' - это выходная карта признаков после применения SAM, то конечный выход z блока после применения пространственного внимания будет таким:

z = У® Ms(y ; {Ws}) (4)

В этом выражении Ms - функция карты пространственного внимания, которая зависит от карты признаков у', выводимой из SAM, и набора весов {Ws}, специфичных для механизма пространственного внимания.

Карта пространственного внимания Ms вычисляется как:

Ms(y; {Ws}) = a(Conv(Concat(AvgPool(y); MaxPoolty); {Ws})) (5)

В данном контексте:

- (AvgPoo(y'); MaxPool(y') - это операции глобального среднего и максимального объединения, применяемые к у', которые сводят каждую карту признаков С х H х W к 1 х H х W.

- Concat представляет собой конкатенацию среднего и максимального значений объединенных карт признаков по измерению канала.

- Conv представляет собой сверточную операцию, параметризованную {Ws}, которая объединяет скомбинированные признаки для получения карты пространственного внимания.

Включение модуля внимания сверточного блока (CBAM) в архитектуру блоков ResNet требует тщательного сохранения внутренних свойств остаточных связей. Этот подход согласуется с рекомендациями, опубликованными в исследовании [31], которые подчеркивают важность сохранения целостности остаточных связей при интеграции механизмов внимания.

Требование не нарушать эти свойства при внедрении CBAM математически представляется следующим

образом:

у = F(x, {M}) + х

у = z(F(x, {Wi})) + % (6)

Реализация. Использование метода трансферного обучения в данном исследовании соответствует принципам, изложенным в [31], и учитывает результаты, полученные в [18]. Для задачи бинарной классификации был выбран слой Global Average Pooling (GAP) в качестве эффективной замены традиционным полносвязным слоям, и эта методология была поддержана в [19]. Для дальнейшего соответствия последним исследованиям было проведено усовершенствование модели, интегрировав слои отсева и пакетной нормализации, которые имеют решающее значение для улучшения производительности и обобщения модели, как подчеркивается в работах [24], [32].

Обучение и тестирование. Обучение модели было произведено в соответствии с установленной практикой, описанной в [18]. Например, веса были оптимизированы с помощью решателя Адама. Начальная скорость обучения установлена на 10-5, а планировщик снижает скорость обучения до 10-6 после 50 эпох. Также были применены некоторые регуляризационные трюки L1, L2, чтобы улучшить обобщающую способность предложенной модели и уменьшить перегрузку во время обучения, как предложено в [31].

Результаты. В качестве результатов приводятся метрики производительности различных моделей, разработанных в рамках данного исследования, которые сведены в таблицу 2. В таблице сравниваются различные конфигурации архитектуры Residual Networks (ResNet), дополненные свёрточным блочным модулем внимания (CBAM) при 40-кратном увеличении. Эксперименты проводились с использованием набора данных из 1,596 обучающих изображений и валидационного набора из 399 изображений, что обеспечивает надежную оценку.

Матрица ошибок и прогнозы. Матрица ошибок топовой модели, обозначенной как ReAttentionNet, дает подробное представление о результатах классификации, в основном показывая распределение истинно положительных и ложноотрицательных результатов по всем протестированным изображениям. Данная матрица, представленная в виде тепловой карты на рис. 3, отображает точность модели - более темный цвет соответствует большему количеству правильно классифицированных экземпляров. Модель ошибок ReAttentionNet в результате работы показала большее количество истинно положительных и наименьшее количество ложноотрицательных результатов. Это сви-

детельствует об эффективности модели в точной диагностике рака молочной железы при минимизации риска лож-ноотрицательных результатов, представляющих не диагностируемые случаи и имеющие важное клиническое значение.

Таблица 2

Показатели эффективности улучшенных остаточных

MeiIiihI M.tgiiificлtion level 4 Ox

Accuracy (%) Precision (%) Recall (%) Fl-score (%)

ResNetl8+CBAM 98.50 98.91 98.91 98.91

ResNet34+CBAM 98.75 99.27 98.91 99.01

ResNet50+CBAM 99.25 100 98.92 99.56

benign malignant

Predicted labels

Рис. 3. Матрица ошибок модели ReAtteiitioiiNet

Рис.4 отображает прогнозные значения модели ReAttention. Зеленые цветовые метки указывают на правильно классифицированные изображения рака молочной железы, тем самым подтверждая эффективность модели в точном определении случаев данного заболевания, что, в свою очередь, свидетельствует о надежности описанного подхода в медицинской диагностике.

Actual: malignant Actual: benign Actual: benign Actual: malignant Actual: benign Actual: malignant

Рис. 4. Прогнозные значения модели ReAttention

Проведенный сравнительный анализ существующих современных методов показывает превосходство модели ReAttentionNet. Исходя из таблицы 2, максимальная точность в 99,25 % достигается при 40-кратном увеличении на наборе данных BreakHis. Данные результаты указывают на эффективность включения модуля свёрточного блока внимания в архитектуру ResNet50 и выгодно отличают его от гибридного метода AlexNet-VGG-19 и различных ансамблевых моделей.

Проведем сравнительный анализ предлагаемой модели ReAttentionNet со стандартной остаточной нейронной сетью (ResNet50) (рис. 5). Высокую производительность характеризует достижение 0,75 % более высокой точности и 0,66 % улучшения F1-уровня. С точки зрения медицинской визуализации такие, даже незначительные, улучшения играют важное значение, поскольку даже небольшое повышение точности приводит к улучшению результатов диагностики и лечения пациентов.

Проверка предлагаемой модели на устойчивость и обобщаемость производится на основе валидации перекрестных баз данных. Весовые коэффициенты, полученные из набора данных BreakHis, могут быть применены к набору данных IDC. Такой подход обеспечит классификацию доброкачественных и злокачественных состояний, а так же инвазивной и неинвазивной протоковой карциномы. Используя 5 000 патчей изображений, т.е. всего 0,018 % от общего числа доступных 277 524 патчей, было обеспечено достижение результатов моделью ReAttentionNet, что продемонстрировало ее адаптивность и потенциал для более широкого клинического применения.

Таблица 3

Характеристики работы современных бинарных классификаторов и предложенной модели

на тестовых данных

40x

Technique Year Accuracy Precision Recall Fl-score

(%) (%) (%) (%)

Custom CNN 2016 83 - - -

Hybrid AlcxNet VGG 19 2018 90.96 - - -

Ensemble CBAM VGGNet 2022 94.44 94.36 94.78 96.05

Attention Mechanism 2022 85.3 89.4 92.4 90.3

Enhance Exception 2023 93.33 92.2 91.63 91.91

Transfer Learning and Attention 2023 98.8 88.2 89.4 88.5

iНе можете найти то, что вам нужно? Попробуйте сервис подбора литературы.

Mechanism ResNet50

Trans fer Learning and Attention 2023 99.2 89.1 88.3 88.3

Mechanism Exception

S elf-supervised contra stive learning 2024 97.82 98.75 98.14 98.45

based on ResNetSO+Inception

Our proposed model 2024 99.25 100 98.92 99.56

(ReAttentionNet)

Accuracy [%) Precision (%] Recall (%) Fl-score [%)

4Qx

■ ResAttentionNet ■ ResNetSO Pue. 5. Сравнительный анализ ResNetSO и усовершенствованного ReAttentimiNet

Таблица 4

Результаты современных методов и предложенной модели для набора данных IDC

Technique Year Accuracy (%) 40x Precision (%) Recall (%) F1-score (%)

Custom CNN 2014 89.56 87 98 92

AlexNet 2016 90.28 87 98 92

FeedForward 2022 71.18 71 95 81

Residual Neural Network 34 2023 79.49 76 100 86

Residual Attention neural network 2023 92.45 91 98 94

Our proposed model (ReAttentionNet) 2024 82.20 88.3 78.70 83.22

Заключение. В статье представлена разработка и проверка модели ReAttentionNet, которая расширяет архитектуру ResNet50 модулем внимания на основе сверточных блоков (CBAM) для классификации гистопатологиче-ских изображений на злокачественные и доброкачественные. Результаты демонстрируют превосходную производительность модели: точность 99,25 %, предсказуемость 100 %, запоминание 98,92 % и F1-показатели 99,56 % среди протестированных конфигураций. Такие показатели эффективности подчеркивают потенциал модели как инструмента для ранней диагностики рака молочной железы.

Эксперименты по проверке, показанные на рисунке 5, показывают, что модель ReAttentionNet превосходит стандартную модель ResNet50, улучшив точность на 0,75 % и F1-показатели на 0,66 %. Эти преимущества, хотя и кажутся незначительными, очень важны в области медицинской визуализации, где точность имеет первостепенное значение и даже незначительное увеличение показателей производительности может оказать глубокое влияние на точность диагностики и результаты лечения пациентов.

Более того, достижение этих исключительных результатов можно отнести не только к интеграции CBAM, но и к комплексному и методичному рабочему процессу, использовавшемуся в ходе исследования. Тщательная предварительная обработка данных, стратегии дополнения и строгое применение методов регуляризации - все это способствовало повышению надежности и обобщаемости модели. Слаженная комбинация этих факторов оказала влияние на достижение превосходных показателей.

Более того, успешное применение предлагаемых методик на наборе данных IDC, опираясь на результаты фундаментальной работы с набором данных BreakHis, подтвердило универсальность и адаптивность модели ReAttentionNet. Такая адаптивность открывает большие перспективы для применения модели в реальных клинических условиях, что потенциально может привести к более точному и раннему выявлению различных форм рака молочной железы.

В заключение следует отметить, что исследование, описанное в этой статье, не только демонстрирует прогресс в области архитектурного дизайна моделей глубокого обучения, но и подчеркивает важнейшую роль целостного рабочего процесса в достижении высокой точности медицинской диагностики. Оно открывает путь к бу-

дущим исследованиям, которые могут опираться на эти результаты для дальнейшего совершенствования и повышения эффективности инструментов медицинской визуализации для улучшения качества лечения пациентов.

Список литературы

1. A. El-Nabawy, N. El-Bendary, and N. A. Belal, "A feature-fusion framework of clinical, genomics, and histo-pathological data for METABRIC breast cancer subtype classification," Applied Soft Computing Journal, vol. 91, 2020, doi: 10.1016/j.asoc.2020.106238.

2. A. Singh, A. Dhillon, N. Kumar, M. S. Hossain, G. Muhammad, and M. Kumar, "eDiaPredict: An Ensemble-based Framework for Diabetes Prediction," ACM Transactions on Multimidia Computing Communications and Applications, vol. 17, no. 2s, Jun. 2021, doi: 10.1145/3415155.

3. C. Bhatt, I. Kumar, V. Vijayakumar, K. U. Singh, and A. Kumar, "The state of the art of deep learning models in medical science and their challenges," Multimed Syst, vol. 27, no. 4, pp. 599- 613, Aug. 2021, doi: 10.1007/S00530-020-00694-1/FIGURES/10.

4. T. Fujioka et al., "The Utility of Deep Learning in Breast Ultrasonic Imaging: A Review," Diagnostics 2020, Vol. 10, Page 1055, vol. 10, no. 12, p. 1055, Dec. 2020, doi: 10.3390/DIAGN0STICS10121055.

5. N. I. R. Yassin, S. Omran, E. M. F. El Houby, and H. Allam, "Machine learning techniques for breast cancer computer aided diagnosis using different image modalities: A systematic review," Comput Methods Programs Biomed, vol. 156, pp. 25-45, Mar. 2018, doi: 10.1016/J.CMPB.2017.12.012.

6. Rakha EA, K. H. Allison, Ellis IO, Horii R, Masuda S, and Penalut-Llorca F, WHO Classification of Tumours of the Breast, no. 4 (der 4. ed.). Internat. Agency for Research on Cancer, 2019.

7. X. Zhou et al., "A Comprehensive Review for Breast Histopathology Image Analysis Using Classical and Deep Neural Networks," IEEE Access, vol. 8, pp. 90931-90956, 2020, doi: 10.1109/ACCESS.2020.2993788.

8. S. Lal, D. Das, K. Alabhya, A. Kanfade, A. Kumar, and J. Kini, "NucleiSegNet: Robust deep learning architecture for the nuclei segmentation of liver cancer histopathology images," Comput Biol Med, vol. 128, p. 104075, Jan. 2021, doi: 10.1016/J. C0MPBI0MED.2020.104075.

9. K. Rautela, D. Kumar, and V. Kumar, "A Systematic Review on Breast Cancer Detection Using Deep Learning Techniques," Archives of Computational Methods in Engineering 2022 29:7, vol. 29, no. 7, pp. 4599-4629, Apr. 2022, doi: 10.1007/S11831-022-09744-5.

10. J. Bai, R. Posner, T. Wang, C. Yang, and S. Nabavi, "Applying deep learning in digital breast tomosynthesis for automatic breast cancer detection: A review," Med Image Anal, vol. 71, p. 102049, Jul. 2021, doi: 10.1016/J.MEDIA.2021.102049.

11. A. Cruz-Roa et al., "Automatic detection of invasive ductal carcinoma in whole slide images with convolu-tional neural networks," in Medical Imaging 2014: Digital Pathology, SPIE, Mar. 2014, p. 904103. doi: 10.1117/12.2043872.

12. A. Janowczyk and A. Madabhushi, "Deep learning for digital pathology image analysis: A comprehensive tutorial with selected use cases," J Pathol Inform, vol. 7, no. 1, Jan. 2016, doi: 10.4103/2153-3539.186902.

13. F. Zhuang et al., "A Comprehensive Survey on Transfer Learning," Proceedings of the IEEE, vol. 109, no. 1, pp. 43-76, Jan. 2021, doi: 10.1109/JPR0C.2020.3004555.

14. F. A. Spanhol, L. S. Oliveira, C. Petitjean, and L. Heutte, "Breast cancer histopathological image classification using Convolutional Neural Networks," Proceedings of the International Joint Conference on Neural Networks, vol. 2016-October, pp. 2560-2567, Oct. 2016, doi: 10.1109/IJCNN.2016.7727519.

15. B. Weil,', Z. Han\, X. He\, and Y. Yin2, "Deep Learning Model Based Breast Cancer Histopathological Image Classification," 2017, doi: 10.1109/ICCCBDA.2017.7951937.

16. E. Deniz, A. §engur, Z. Kadiroglu, Y. Guo, V. Bajaj, and U. Budak, "Transfer learning based histopathologic image classification for breast cancer detection," Health Inf Sci Syst, vol. 6, no. 1, p. 18, Dec. 2018, doi: 10.1007/S13755-018-0057-X.

17. S. Boumaraf, X. Liu, Z. Zheng, X. Ma, and C. Ferkous, "A new transfer learning based approach to magnification dependent and independent classification of breast cancer in histopathological images," Biomed Signal Process Control, vol. 63, pp. 1746-8094, 2020, doi: 10.1016/j.bspc.2020.102192.

18. A. Dubey, S. K. Singh, and X. Jiang, "Leveraging CNN and Transfer Learning for Classification of Histo-pathology Images," in Communications in Computer and Information Science, Springer Science and Business Media Deutschland GmbH, 2022, pp. 3-13. doi: 10.1007/978-3-031-243677_1.

19. H. Aljuaid, N. Alturki, N. Alsubaie, L. Cavallaro, and A. Liotta, "Computer-aided diagnosis for breast cancer classification using deep neural networks and transfer learning," Comput Methods Programs Biomed, vol. 223, p. 106951, Aug. 2022, doi: 10.1016/J.CMPB.2022.106951.

20. B. S. Abunasser, M. R. J. AL-Hiealy, I. S. Zaqout, and S. S. Abu-Naser, "Convolution Neural Network for Breast Cancer Detection and Classification Using Deep Learning," Asian Pac J Cancer Prev, vol. 24, no. 2, p. 531, 2023, doi: 10.31557/APJCP.2023.24.2.531.

21. R. Karthik, R. Menaka, and M. V. Siddharth, "Classification of breast cancer from histopathology images using an ensemble of deep multiscale networks," Biocybern Biomed Eng, vol. 42, no. 3, pp. 963-976, Jul. 2022, doi: 10.1016/J.BBE.2022.07.006.

22. C. Khim Toa, M. Elsayed, • Kok, and S. Sim, "Deep residual learning with attention mechanism for breast cancer classification," 2023, doi: 10.1007/s00500-023-09152-2.

23. A. Ashurov, S. A. Chelloug, A. Tselykh, M. S. A. Muthanna, A. Muthanna, and M. S. A. M. AlGaashani, "Improved Breast Cancer Classification through Combining Transfer Learning and Attention Mechanism," Life, vol. 13, no. 9, Sep. 2023, doi: 10.3390/LIFE13091945.

24. A. Deeb, A. Debow, S. Mansour, and V. Shkodyrev, "COVID-19 diagnosis with Deep Learning: Adjacent-pooling CTScan-COVID-19 Classifier Based on ResNet and CBAM," Biomed Signal Process Control, vol. 86, p. 105285, Sep. 2023, doi: 10.1016/J.BSPC.2023.105285.

25. R. Ribani and M. Marengoni, "A Survey of Transfer Learning for Convolutional Neural Networks," in Proceedings - 32nd Conference on Graphics, Patterns and Images Tutorials, SIBGRAPI-T 2019, Institute of Electrical and Electronics Engineers Inc., Oct. 2019, pp. 47-57. doi: 10.1109/SIBGRAPI-T.2019.00010.

26. O. O. Oladimeji and A. O. J. Ibitoye, "Brain tumor classification using ResNet50-convolutional block attention module," Applied Computing and Informatics, 2023, doi: 10.1108/ACI-09-20230022.

27. K. He, X. Zhang, S. Ren, and J. Sun, "Delving Deep into Rectifiers: Surpassing Human-Level Performance on ImageNet Classification," in 2015 IEEE International Conference on Computer Vision (ICCV), IEEE, Dec. 2015, pp. 1026-1034. doi: 10.1109/ICCV.2015.123.

28. T. A. Toma et al., "Breast Cancer Detection Based on Simplified Deep Learning Technique With Histopathological Image Using BreaKHis Database," Radio Sci, vol. 58, no. 11, Nov. 2023, doi: 10.1029/2023RS007761.

29. S. A. Joshi, A. M. Bongale, P. O. Olsson, S. Urolagin, D. Dharrao, and A. Bongale, "Enhanced Pre-Trained Xception Model Transfer Learned for Breast Cancer Detection," Computation 2023, Vol. 11, Page 59, vol. 11, no. 3, p. 59, Mar. 2023, doi: 10.3390/COMPUTATION11030059.

30. A. Ijaz et al., "Modality Specific CBAM-VGGNet Model for the Classification of Breast Histopathology Images via Transfer Learning," IEEE Access, vol. 11, pp. 15750-15762, 2023, doi: 10.1109/ACCESS.2023.3245023.

31. F. Bin Ashraf, S. M. M. Alam, and S. M. Sakib, "Enhancing breast cancer classification via histopathological image analysis: Leveraging self-supervised contrastive learning and transfer learning," Heliyon, vol. 10, no. 2, p. e24094, Jan. 2024, doi: 10.1016/J.HELIYON.2024.E24094.

32. H. Seo, L. Brand, L. S. Barco, and H. Wang, "Scaling multi-instance support vector machine to breast cancer detection on the BreaKHis dataset," Bioinformatics, vol. 38, no. Supplement_1, pp. i92-i100, Jun. 2022, doi: 10.1093/BIOINFORMATICS/BTAC267.

Хаодун Чэн, студент, [email protected]. Россия, Санкт-Петербург, Санкт-петербургский политехнический университет Петра Великого,

Чжоу Вэй, студент, zzwdyx0911@163. com. Россия, Санкт-Петербург, Санкт-петербургский политехнический университет Петра Великого,

Потехин Вячеслав Витальевич, канд. техн. наук, доцент, [email protected]. Россия, Санкт-Петербург, Санкт-петербургский политехнический университет Петра Великого,

Кожубаев Юрий Нургалиевич, канд. техн. наук, доцент, Россия, Санкт-Петербург, Санкт-петербургский политехнический университет Петра Великого,

Карпухин Виктор Сергеевич, студент, [email protected]. Россия, Санкт-Петербург, Санкт-петербургский политехнический университет Петра Великого

IMPROVING BREAST CANCER CLASSIFICATION WITH DEEP LEARNING INNOVATIONS Haodong Cheng, Zhou Wei, V.V. Potekhin, Yu.N. Kozhubaev, VS. Karpushin

Breast cancer is the leading cause of death among women, accounting for more than 40,000 deaths each year according to the American Cancer Society. Given the critical importance of early detection of the disease to improve outcomes, innovations in diagnostic technologies are critical. This paper presents the development of ReAttentionNet, an improvement on the ResNet50 architecture integrated with a convolutional block attention module (CBAM). This model is specifically designed to classify histopathological images as malignant or benign at 40x zoom-in. With outstanding performance of99.25% accuracy, 100% predictability, 98.92% recall, and 99.56% Fl-score, ReAttentionNet significantly outperforms existing methods, highlighting its potential as a powerful tool for early breast cancer detection. Further validation of this model on the IDC dataset using the foundational BreakHis dataset confirms its adaptability and potential for use in real-world clinical settings, laying the foundation for transformative advances in breast cancer early detection practice.

Key words: Deep learning, convolutional neural networks, binary classification, convolutional block attention module (CBAM), breast cancer, invasive ductal carcinoma (IDC), histopathology image (HP).

Haodong Cheng, student, chenghaodong732@gmail. com, Russia, Saint Petersburg, Peter the Great Saint Petersburg Polytechnic University,

Zhou Wei, student, zzwdyx0911 @163. com, Russia, Saint Petersburg, Peter the Great Saint Petersburg Polytechnic University,

Potekhin Vyacheslav Vitalievich, candidate of technical sciences, docent, um-urii@mail. ru, Russia, Saint Petersburg, Peter the Great Saint Petersburg Polytechnic University,

Kozhubaev Yuri Nurgalievich, candidate of technical sciences, docent, Russia, Saint Petersburg, Peter the Great Saint Petersburg Polytechnic University,

Karpushin Viktor Sergeevich, student, [email protected], Russia, Saint Petersburg, Peter the Great Saint Petersburg Polytechnic University

i Надоели баннеры? Вы всегда можете отключить рекламу.