Geautomatiseerde extractie van 3D zachte weefsel chephaometrische landmarks uit CBCT- en CT-scans met behulp van een op deep learning gebaseerde benadering

Geautomatiseerde extractie van 3D zachte weefsel chephaometrische landmarks uit CBCT- en CT-scans met behulp van een op deep learning gebaseerde benadering

Geautomatiseerde extractie van 3D zachte weefsel chephaometrische landmarks uit CBCT- en CT-scans met behulp van een op deep learning gebaseerde benadering

F. BIELEVELT, B. BERENDS, Th. MAAL, S.J. BERGÉ, G. DE JONG

3D Lab Radboudumc en afdeling MKA Radboudumc Nijmegen

 

Introductie en doelstellingen

Cone beam computed tomography (CBCT) en computed tomography (CT) scans zijn gevestigde beeldvormingstechnieken op de afdeling mondziekten, kaak- en aangezichtschirurgie. Naast diagnostische doeleinden worden deze beeldvormingstechnieken gebruikt voor preoperatieve en postoperatieve analyse van cranio-maxillofaciale chirurgie. Om klinische observaties te objectiveren en zacht weefsel verplaatsing te beoordelen, kunnen zachte weefsel cephalometrische landmarks worden geëxtraheerd uit CBCT-scans. Echter, handmatige annotatie van deze driedimensionale (3D) landmarks, de huidige gouden standaard, is een tijdrovend proces en gevoelig voor fouten. Daarom was het doel van deze studie om een geautomatiseerde cephalometrische annotatiemethode te ontwikkelen en te evalueren met behulp van een op deep learning gebaseerde benadering.

 

Materialen en methoden

In totaal werden 100 CBCT- en 100 CT-scans geïncludeerd en handmatig geannoteerd met tien cephalometrische landmarks: nasion, neuspunt, beide exocanthions, endocanthions, alares en cheilions. Alle 100 CBCT-scans hadden bijbehorende 3D-stereofotogrammetriebeelden, die werden gesuperponeerd over de 3D-reconstructie van de CBCT-scans om bij te dragen aan de plaatsing van handmatige landmarks. Voor de CT-scans was handmatige annotatie gebaseerd op de 3D-zachte weefselreconstructie. Een 3D U-Net werd ontwikkeld en getraind om de ruwe locatie van de tien landmarks te detecteren op de verkleinde CBCT- en CT-scans. Vervolgens werd een bestaande DiffusionNet, voortgekomen uit eerder onderzoek, gebruikt om de exacte landmarks te extraheren uit de originele hoge-resolutie CBCT- en CT-scans. De geïncludeerde handmatig geannoteerde CBCT- en CT-scans werden willekeurig verdeeld in een trainingsdataset (90%) en een testdataset (10%).

 

Resultaten

De geautomatiseerde cephalometrische annotatiemethode vertoonde veelbelovende resultaten bij het voorspellen van landmarks op zowel CBCT- als CT-scans. Na de trainingsfase toonde het model zijn bekwaamheid door nauwkeurig de locaties van elk van de tien cephalometrische landmarks te voorspellen op de onafhankelijke testdataset. De tien landmarks konden worden voorspeld met een gemiddelde Eucledian Distance van 2,17 (+/- 0,82) mm in vergelijking met de handmatig geannoteerde landmarks. Individueel werden het linker- en rechter alare landmark het meest nauwkeurig voorspeld met een nauwkeurigheid van respectievelijk 1,64 mm en 1,61 mm.

 

Conclusie

De ontwikkelde geautomatiseerde methode was in staat om landmarks op CBCT- en CT-scans nauwkeurig en consistent te voorspellen, met nauwkeurigheden die overeenkwamen met de intra- en intervariabiliteitsscores van handmatige annotatiemethoden. In vergelijking met eerdere onderzoeken naar de automatische extractie van 3D-landmarks uit 3D-stereofotogrammetriebeelden, werden de individuele landmarks voorspeld met vergelijkbare nauwkeurigheden. De voorgestelde benadering maakt het mogelijk om automatisch objectieve zacht weefsel analyses uit te voeren van CBCT- en CT-scans. In de toekomst kan dit worden gebruikt voor het maken van een volledig geautomatiseerde virtuele chirurgieplanning.

 

Zoeken binnen de hele website.

Open/Sluit
Snel menu