딥 러닝 모델과 LiDAR 카메라를 사용한 욕창 자동 분할 및 측정

소식

홈페이지홈페이지 / 소식 / 딥 러닝 모델과 LiDAR 카메라를 사용한 욕창 자동 분할 및 측정

Nov 22, 2023

딥 러닝 모델과 LiDAR 카메라를 사용한 욕창 자동 분할 및 측정

과학 보고서 13권,

Scientific Reports 13권, 기사 번호: 680(2023) 이 기사 인용

1221 액세스

1 인용

3 알트메트릭

측정항목 세부정보

욕창은 예후 불량, 장기 입원, 고령화 사회에 따른 의료비 증가 등을 초래하는 흔한 문제입니다. 본 연구에서는 딥러닝 모델과 LiDAR(Light 감지 및 거리 측정) 카메라를 사용하여 욕창의 자동 분할 및 면적 측정을 수행하는 방법을 개발했습니다. 우리는 2016년부터 2020년까지 국립대만대학병원에서 총 528명의 욕창 환자의 가장 훌륭한 사진을 선택했습니다. 욕창의 여백은 보드 인증을 받은 성형외과 의사 3명이 라벨링했습니다. 라벨이 붙은 사진은 분할을 위해 Mask R-CNN과 U-Net으로 훈련되었습니다. 분할 모델이 구축된 후 LiDAR 카메라를 통해 자동 상처 면적 측정을 수행했습니다. 우리는 이 시스템의 정확성을 테스트하기 위해 전향적 임상 연구를 수행했습니다. 자동 상처 분할의 경우 외부 검증에서 U-Net(Dice Coefficient(DC): 0.8448)의 성능이 Mask R-CNN(DC: 0.5006)보다 우수했습니다. 전향적 임상 연구에서 U-Net을 자동 상처 면적 측정 시스템에 통합했으며 기존 수동 방법에 비해 평균 상대 오차가 26.2%였습니다. 우리의 세분화 모델, U-Net 및 면적 측정 시스템은 수용 가능한 정확도를 달성하여 임상 상황에 적용할 수 있게 되었습니다.

연조직의 장기간 압박으로 인해 발생하는 욕창은 의료 시스템에 큰 부담을 주며 전 세계 수백만 명의 환자에게 영향을 미칩니다. 미국에서는 욕창 치료에 드는 비용이 연간 110억 달러 이상입니다. 개별 환자 치료 비용은 욕창당 $20,900~$151,700입니다1.

코로나19 팬데믹 시대에 환자를 의료기관으로 이송하여 치료를 받는 것은 코로나19 감염 위험을 증가시킵니다. 따라서 이러한 환자의 상처 치료를 위한 원격 의료는 의료 비용을 절감하고 감염원을 피하며 치료를 보다 효율적으로 만드는 데 도움이 될 수 있습니다. 원격 의료에서는 상처 치유 궤적을 모니터링하고 향후 개입을 결정하기 위해 만성 상처를 평가하고 관리하는 데 상처 부위의 정확한 측정이 중요합니다. 그러나 수동 측정은 일차 간병인에게 시간이 많이 걸리고 불편합니다. 상처 부위를 자동으로 측정할 수 있는 시스템을 구축하려면 먼저 상처 분할이 필요합니다.

상처 분할에 관한 이전 연구는 크게 전통적인 방법과 딥러닝 방법의 두 가지 그룹으로 분류할 수 있습니다. 첫 번째 그룹의 연구에서는 K-평균 클러스터링, 가장자리 감지, 임계값 지정, 영역 성장 등과 같은 기존 알고리즘을 사용하여 수동 기능 추출을 적용합니다2,3,4,5,6. 이러한 방법에는 다음과 같은 제한 사항이 있습니다. (1) 많은 컴퓨터 비전 시스템에서와 마찬가지로 손으로 만든 기능은 환경 및 이미지 해상도의 영향을 받습니다. (2) 임상 상황에서 매우 비현실적인 심각한 병리 및 드문 경우에 면역되지 않습니다.

기존 방법과 달리 인간 두뇌의 신경망 구조를 기반으로 하는 딥러닝 방법은 의료 영상 처리 분야에서 유망한 성능을 보여왔습니다7. AlexNet8이 2012년 ImageNet 대규모 시각적 인식 챌린지에서 성공을 거둔 이후 심층 컨볼루셔널 신경망(CNN)을 사용하여 컴퓨터 비전 영역에서 딥 러닝 애플리케이션 개발이 시작되었습니다. CNN은 특징을 추출하고 훈련 시 그 중요성을 결정합니다. 분할을 위한 CNN의 성공적인 아키텍처 중 하나는 완전 컨볼루션 신경망(FCN)9입니다. FCN은 완전 연결 레이어 없이 컨벌루션 레이어로만 구성됩니다. 상처 분할 문제를 해결하기 위해 여러 FCN 기반 모델이 제안되었습니다. 예를 들어, 왕 외. 상처 분할을 위한 바닐라 FCN 아키텍처를 제안했습니다. 그러나 분할의 주사위 계수는 64.2%에 불과했다. Goyalet al. 상처 이미지 FCN-16 아키텍처를 제안했습니다. 그들은 데이터 세트에서 79.4%의 주사위 계수를 달성할 수 있었습니다. 그러나 작은 상처와 경계가 불규칙한 상처를 구별할 때 네트워크의 분할 정확도는 부드러운 윤곽을 그리는 경향이 있기 때문에 제한됩니다. Liu et al. 바닐라 FCN의 디코더를 이중선형 보간법으로 업샘플링된 스킵 레이어 연결로 대체하는 새로운 FCN 아키텍처를 제안했습니다. 복잡한 배경과 통제되지 않는 조명 환경에서 촬영한 950개의 이미지 데이터 세트에서 91.6%의 주사위 정확도를 달성했습니다. 그러나 데이터 세트의 이미지에는 유역 알고리즘을 사용하여 반자동으로 주석이 추가되었습니다. 왕 외. 는 MobileNetV2를 기반으로 한 새로운 컨벌루션 프레임워크와 자연 이미지에서 상처 영역을 분할하기 위한 연결된 구성 요소 라벨링을 제안하고 90.47%의 주사위 계수를 달성했습니다. Chang et al. 욕창을 분할하기 위한 슈퍼픽셀 분할 지원 라벨링을 기반으로 U-Net, DeeplabV3, PsPNet, FPN 및 Mask R-CNN의 다섯 가지 딥 러닝 모델을 테스트했으며 DeeplabV3는 0.992514의 정확도로 최고의 성능을 보였습니다. 그러나 외부 검증은 수행되지 않았습니다. 상처 분할을 위한 딥러닝은 이제 신뢰할 수 있는 기술이며 일부 연구에서는 포괄적인 결과를 얻었습니다.