Kardiologer tränade en stor AI-modell för att bedöma hjärtats struktur och funktion
Senast recenserade: 14.06.2024
Allt iLive-innehåll är mediekontrollerat eller faktiskt kontrollerat för att säkerställa så mycket faktuell noggrannhet som möjligt.
Vi har strikta sourcing riktlinjer och endast länk till välrenommerade media webbplatser, akademiska forskningsinstitut och, när det är möjligt, medicinsk peer granskad studier. Observera att siffrorna inom parentes ([1], [2] etc.) är klickbara länkar till dessa studier.
Om du anser att något av vårt innehåll är felaktigt, omodernt eller på annat sätt tveksamt, välj det och tryck på Ctrl + Enter.
Experter på artificiell intelligens från Cedars-Sinai och Smidt Heart Institute skapade en datauppsättning med mer än 1 miljon ekokardiogram (videoultraljud av hjärtat) och deras motsvarande kliniska tolkningar. Med hjälp av denna databas utvecklade de EchoCLIP, en kraftfull maskininlärningsalgoritm som kan "tolka" ekokardiogrambilder och utvärdera nyckelindikatorer.
Utformningen och utvärderingen av EchoCLIP, som beskrivs i en artikel publicerad i Nature Medicine, tyder på att tolkning av en patients ekokardiogram med EchoCLIP ger kliniska bedömningar på specialistnivå, inklusive bedömning av hjärtfunktion, resultat från tidigare operationer och implanterade enheter, och kan även hjälpa läkare att identifiera patienter i behov av behandling.
Den grundläggande EchoCLIP-modellen kan också identifiera samma patient över flera videor, undersökningar och tidpunkter, och känna igen kliniskt viktiga förändringar i patientens hjärta.
"Såvitt vi vet är detta den största modellen som tränats på ekokardiografibilder, säger huvudförfattaren David Ouyang, MD, medlem av kardiologiska avdelningens fakultet vid Smidt Heart Institute och Institutionen för artificiell intelligens i medicin.
"Många tidigare AI-modeller för ekokardiogram är tränade på endast tiotusentals exempel. Däremot är EchoCLIPs unika höga prestanda i bildtolkning resultatet av träning på nästan tio gånger mer data än befintliga modeller."
"Våra resultat visar att stora, peer-reviewed medicinsk bildbehandlings- och tolkningsdatauppsättningar kan tjäna som grund för utbildning av grundläggande medicinska modeller, som är en form av generativ artificiell intelligens," tillade Ouyang.
EchoCLIP arbetsflöde. Källa: Naturmedicin (2024). DOI: 10.1038/s41591-024-02959-y
Han noterade att denna avancerade baslinjemodell snart kan hjälpa kardiologer att utvärdera ekokardiogram genom att generera preliminära uppskattningar av hjärtmätningar, identifiera förändringar över tid och vanliga sjukdomar.
Forskargruppen skapade en datauppsättning med 1 032 975 hjärt-ultraljudsvideor och tillhörande experttolkningar för att utveckla EchoCLIP. Viktiga resultat från studien inkluderar:
- EchoCLIP har visat hög prestanda vid bedömning av hjärtfunktion från hjärtbilder.
- Grundmodellen kunde identifiera implanterade intrakardiella enheter som pacemakers, implanterade mitralis- och aortaklaffar från ekokardiogrambilder.
- EchoCLIP identifierade exakt unika patienter genom studier, identifierade kliniskt viktiga förändringar som tidigare hjärtkirurgi och möjliggjorde utvecklingen av preliminära texttolkningar av ekokardiogrambilder.
"Baslinjemodeller är ett av de nyaste områdena inom generativ AI, men de flesta modellerna har inte tillräckligt med medicinsk data för att vara användbara inom sjukvården", säger Christina M. Albert, MD, MPH, ordförande för avdelningen för kardiologi vid Smidt hjärtinstitut.
Albert, som inte var involverad i studien, tillade: "Denna nya baslinjemodell integrerar datorseende för bildtolkning av ekokardiogram med naturlig språkbehandling för att förbättra kardiologernas tolkningar."