[ad_1] Bien que le cancer de l'ovaire soit le type de cancer le plus mortel pour les femmes, seulement 20 % environ des cas sont détectés tôt, car il n'existe pas de véritables tests de dépistage pour eux et peu de symptômes pour les déclencher. De plus, les lésions ovariennes sont difficiles à diagnostiquer avec précision - si difficiles, en fait, qu'il n'y a aucun signe de cancer chez plus de 80% des femmes qui subissent une intervention chirurgicale pour retirer et tester les lésions. (De gauche à droite) La rangée du haut montre une image échographique d'une lésion ovarienne maligne, la saturation en oxygène du sang et la concentration d'hémoglobine. La rangée du bas est une image échographique d'une lésion bénigne, de la saturation en oxygène du sang et de la concentration en hémoglobine. Crédit image : laboratoire Zhu Quing Zhule professeur Edwin H. Murty de génie biomédical à l'Université de Washington à la McKelvey School of Engineering de St. Louis, et les membres de son laboratoire ont appliqué diverses méthodes d'imagerie pour diagnostiquer le cancer de l'ovaire plus précisément. Maintenant, ils ont développé un nouveau modèle de fusion d'apprentissage automatique qui tire parti des caractéristiques ultrasonores existantes des lésions ovariennes pour entraîner le modèle à reconnaître si une lésion est bénigne ou cancéreuse à partir d'images reconstruites prises avec la tomographie photoacoustique. L'apprentissage automatique s'est traditionnellement concentré sur les données à modalité unique. Des découvertes récentes ont montré que l'apprentissage automatique multimodalité est plus robuste dans ses performances que les méthodes unimodales. Dans une étude pilote de 35 patients avec plus de 600 régions d'intérêt, la précision du modèle était de 90 %. Il s'agit de la première étude échographique visant à améliorer les performances d'apprentissage automatique de la reconstruction par tomographie photoacoustique pour le diagnostic du cancer. Les résultats de la recherche ont été publiés dans le numéro de décembre de la revue Photoacoustique. "Les modalités existantes sont principalement basées sur la taille et la forme des lésions ovariennes, qui ne fournissent pas un diagnostic précis pour le cancer de l'ovaire précoce et pour l'évaluation du risque de grandes lésions annexielles/ovariennes", a déclaré Zhu, également professeur de radiologie à l'École. de Médecine. "L'imagerie photoacoustique ajoute plus d'informations fonctionnelles sur le contraste vasculaire à partir de la concentration d'hémoglobine et de la saturation en oxygène du sang." Yun Zou, doctorant dans le laboratoire de Zhu, a développé un nouveau modèle de fusion d'apprentissage automatique en combinant un réseau de neurones à ultrasons avec un réseau de neurones de tomographie photoacoustique pour effectuer un diagnostic de lésion ovarienne. Les lésions cancéreuses des ovaires peuvent se présenter sous plusieurs morphologies différentes dès l'échographie : certaines sont solides, et d'autres présentent des projets papillaires à l'intérieur des lésions kystiques, ce qui les rend plus difficiles à diagnostiquer. Pour améliorer le diagnostic global de l'échographie, ils ont ajouté la concentration totale d'hémoglobine et la saturation en oxygénation du sang à partir de l'imagerie photoacoustique, qui sont toutes deux des biomarqueurs du tissu ovarien cancéreux. "Nos résultats ont montré que le modèle de fusion d'imagerie photoacoustique amélioré par ultrasons reconstruisait les cartes de saturation totale de l'hémoglobine et de l'oxygène dans le sang de la cible avec plus de précision que les autres méthodes et fournissait un diagnostic amélioré des cancers de l'ovaire à partir de lésions bénignes", a déclaré Zou. La source: Université de Washington à Saint-Louis Tu peux offrez votre lien vers une page en rapport avec le sujet de cet article. !function(f,b,e,v,n,t,s){if(f.fbq)return;n=f.fbq=function(){n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments)};if(!f._fbq)f._fbq=n; n.push=n;n.loaded=!0;n.version='2.0';n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0];s.parentNode.insertBefore(t,s)}(window, document,'script','https://connect.facebook.net/en_US/fbevents.js'); fbq('init', '1254095111342376'); fbq('track', 'PageView'); [ad_2] Source link