Selbst

Nachricht

HeimHeim / Nachricht / Selbst

Nov 14, 2023

Selbst

Band Kommunikationsbiologie

Kommunikationsbiologie Band 5, Artikelnummer: 1162 (2022) Diesen Artikel zitieren

3397 Zugriffe

1 Zitate

7 Altmetrisch

Details zu den Metriken

Die Segmentierung einzelner Zellen ist ein notwendiger Prozess zur Extraktion quantitativer Daten aus biologischen Mikroskopbildern. Im letzten Jahrzehnt sind Methoden des maschinellen Lernens (ML) aufgekommen, um diesen Prozess zu unterstützen. Die überwiegende Mehrheit davon fällt unter das überwachte Lernen (Supervised Learning, SL), das riesige Bibliotheken vorverarbeiteter, von Menschen kommentierter Etiketten zum Trainieren der ML-Algorithmen erfordert . Eine solche SL-Vorverarbeitung ist arbeitsintensiv, kann zu Verzerrungen führen, ist je nach Endbenutzer unterschiedlich und es muss noch nachgewiesen werden, dass robuste Modelle in der gesamten Zellbiologiegemeinschaft effektiv eingesetzt werden können. Um dieses Vorverarbeitungsproblem anzugehen, bieten wir hier einen Ansatz des selbstüberwachten Lernens (SSL) an, der die Zellbewegung zwischen aufeinanderfolgenden Bildern nutzt, um einen ML-Klassifikator selbst zu trainieren und so eine Zell- und Hintergrundsegmentierung zu ermöglichen, ohne dass einstellbare Parameter oder kuratierte Bilder erforderlich sind . Durch die Nutzung von Bewegung erreichen wir eine genaue Segmentierung, die sich direkt auf Endbenutzerdaten ausbildet, unabhängig von der optischen Modalität ist, moderne SL-Methoden übertrifft und dies auf vollständig automatisierte Weise durchführt – wodurch Endbenutzervariabilität und -verzerrung eliminiert werden. Nach unserem besten Wissen stellt dieser SSL-Algorithmus den ersten seiner Art dar und verfügt über attraktive Funktionen, die ihn zu einem idealen Segmentierungstool-Kandidaten für die breitere zellbiologische Forschungsgemeinschaft machen.

Die in Zeitraffer-Lebendzellmikroskopiebildern gespeicherten Informationen sind für die Zellbiologie von größter Bedeutung. Insbesondere zweidimensionale (2D) Zellkulturen und Experimente sind sowohl in der akademischen als auch in der industriellen Forschung, bei Regulierungsprozessen und in kommerziellen Pipelines weit verbreitet. Daher besteht ein klarer Bedarf an quantitativen Biobildanalysetools, häufig in Form der Zellsegmentierung. Im letzten Jahrzehnt hat sich maschinelles Lernen zu einer leistungsstarken Methode zur Zellsegmentierung entwickelt1,2,3. Maschinelles Lernen bietet ein Framework, Supervised Learning (SL), das die Daten mit von Menschen annotierten Beschriftungen kombiniert, um ein Klassifikationsmodell zur Identifizierung interessanter Merkmale zu bilden. Insbesondere künstliche neuronale Netze (ANNs) waren in den letzten Jahren eine beliebte SL-Technik in der Biobildanalyse, da sie in der Regel Standard-Bildverarbeitungspipelines übertreffen3,4.

Ein großer Nachteil des maschinellen Lernens besteht darin, dass es datenhungrig ist. Insbesondere benötigen ANNs für eine gute Leistung bei komplexen Datensätzen typischerweise eine immense Menge an gekennzeichneten Daten, ein Schritt, der üblicherweise als Datenvorverarbeitung bezeichnet wird. Standardmäßige Computer-Vision-Trainingsbibliotheken wie COCO von Microsoft enthalten beispielsweise über 1 Million Label-Objekte, um ANNs angemessen zu trainieren5. Das Problem bei diesem Ansatz besteht darin, dass die Bilder in der Zellbiologie im Vergleich zu den Bildern, die für internetbezogene Computer-Vision-Probleme (z. B. Tiererkennung) typisch sind, unglaublich vielfältig sind. Infolgedessen gibt es zahlreiche groß angelegte Bemühungen, immer größere Trainingsbibliotheken zu schaffen, um diesem Bedarf gerecht zu werden, wie zum Beispiel die kürzlich kuratierten Bibliotheken EVICAN6 (26.000 beschriftete Objekte), CellPose7 (70.000 beschriftete Objekte) und LIVEcell8 (1,6 Millionen beschriftete Objekte). hofft, robuste Modelle zu entwickeln, die einfach von der größeren Zellbiologie-Forschungsgemeinschaft genutzt werden können. Allen SL, einschließlich ANNs, liegt jedoch die Tatsache zugrunde, dass Modelle nur bei Daten zuverlässig funktionieren, die denen ähneln, die während des Trainings verwendet wurden9. Dieser Ansatz der „großen Bibliothek“ ist der schieren Breite an Zelltypen, optischen Modalitäten, Mikroskopkonfigurationen, extrazellulären 2D- und 3D-Umgebungen und maßgeschneiderten experimentellen Bedingungen, die die Zellmikroskopie verkörpern – die sich alle ständig weiterentwickeln – nicht gewachsen. Das beim maschinellen Lernen übliche Motto „Im Zweifelsfall umschulen“ ist ein klarer Beweis für diese Tatsache, doch das Modelltraining ist alles andere als trivial und eine notorisch arbeitsintensive Aufgabe10, die oft auf Kosten des Endbenutzers geht.

Während das Fachgebiet in Bezug auf Trainingsbibliotheken weiterhin die Philosophie „Größer ist besser“ verfolgen kann, wächst die Erkenntnis, dass subjektive Elemente über die Datenkennzeichnung in Modelle des maschinellen Lernens gelangen11,12,13,14, was dazu führt, dass Verzerrungen effektiv in die extrahierten Daten eingebrannt werden Daten durch den Trainingsprozess auf schlecht definierte und schwer zu bestimmende Weise. Darüber hinaus ist die Wirksamkeit großer Bibliotheken aufgrund der Undurchsichtigkeit der Modellgewichte und der möglichen Überanpassung beim Überspannen eines so großen Parameterraums immer noch eine aktive Frage. Um den Zugang zum maschinellen Lernen für die breitere Zellbiologie-Community zu verbessern, ist ein alternativer Ansatz erforderlich, der nicht auf Trainingsstrategien nach dem Motto „Größer ist besser“ beruht. Eine alternative Strategie ist selbstüberwachtes Lernen (SSL). SSL nutzt einige zugrunde liegende Funktionen in den Daten selbst als Mittel zur Überwachung oder Kennzeichnung von Daten und ist vielversprechend, da es direkt aus den eigenen Daten des Endbenutzers lernen kann – wodurch die Notwendigkeit arbeitsintensiver kuratierter Bibliotheken und der darin enthaltenen Vorurteile entfällt. Für Zeitraffer-Live-Zellbilder gibt es eine herausragende Datenstruktur, die zur Selbstkennzeichnung von Daten verwendet werden kann, unabhängig vom Zelltyp, der optischen Modalität oder einem anderen verwendeten Versuchsaufbau: Bewegung.

Hier zeigen wir, dass der optische Fluss zwischen aufeinanderfolgenden Bildern als Mittel zur Selbstkennzeichnung von Daten für die Zellsegmentierung (Zero-Shot-Lernen) verwendet werden kann. Anschließend konstruieren wir einen Algorithmus, der sich mit diesen selbstgekennzeichneten Daten selbst trainiert, um Zellen im Vergleich zum Hintergrund zu klassifizieren, und zwar auf völlig automatisierte Weise. Wir validieren unseren Algorithmus anhand verschiedener lebender Zellbilder, die fünf optische Modalitäten (sowohl fluoreszierend als auch tagfrei) und sehr unterschiedliche Versuchsaufbauten umfassen, um seine Anwendbarkeit auf die breitere zellbiologische Forschungsgemeinschaft zu zeigen. Durch die Nutzung der Bewegung, die Zeitraffer-Lebendzellenbildern innewohnt, zeigen wir, dass (1) SSL menschliches Eingreifen eliminiert; es besteht keine Notwendigkeit, ständig wachsende Trainingsbibliotheken aufzubauen, (2) SSL ermöglicht eine vollständige Automatisierung, ein wichtiger Schritt vorwärts bei der Beseitigung von Verzerrungen und der Produktion reproduzierbarer maschineller Lernbemühungen in der Zellbiologie, und (3) SSL weist keine Abhängigkeiten von bestimmten Zelltypen auf, optische Modalität oder experimentelle Umgebung. Zusammen ergeben alle drei Vorteile ein robustes, reproduzierbares und für den Benutzer zugängliches Zellsegmentierungstool.

Wir zeigen, dass wir durch die Nutzung von Bewegung als Mittel zur Selbstüberwachung direkt anhand der zu analysierenden Daten die modernsten generalistischen ANN-Modelle mit kuratierten Bibliotheken von über Zehntausenden von Labels übertreffen. Nach unserem besten Wissen stellt diese Arbeit den ersten vollständig automatisierten allgemeinen Zellsegmentierungsalgorithmus seiner Art dar. Noch wichtiger ist, dass unser SSL-Ansatz das Vorverarbeitungsproblem beim maschinellen Lernen direkt angeht und einen Weg nach vorne bietet, um die unvoreingenommene Zugänglichkeit von maschinellem Lernen für Zellbiologielabore zu verbessern.

Um manuelle und überwachte Lernansätze zur Segmentierung von Zellen durch einen selbstüberwachten Algorithmus zu ersetzen, haben wir uns das eine phänotypische Merkmal zunutze gemacht, das in der Mikroskopie lebender Zellen immer vorhanden ist: Bewegung. Die allgegenwärtige Dynamik, die durch die Lebendzellmikroskopie erfasst wird, macht sie ideal für die Anwendung von Algorithmen des optischen Flusses (OF), die darauf ausgelegt sind, die Variation oder den „Fluss“ von Bildmerkmalen von Bild zu Bild zu identifizieren. Optische Flussalgorithmen basieren auf der Annahme, dass zwei Bilder durch eine räumliche Verschiebung ihrer Pixelwerte in Beziehung gesetzt werden können. Die zur Berechnung dieser Verschiebungen verwendeten Methoden werden mit verschiedenen Bildgebungszielen abgeglichen, wie z. B. Bewegungserkennung, Führung autonomer Fahrzeuge, Stabilisierung von Bildern von beweglichen Plattformen, Ausrichtung medizinischer Bilder oder, im Fall dieser Studie, Zellbewegungssegmentierung15. Um die Tatsache zu berücksichtigen, dass Zellen stark verformbar sind und dass Live-Zellbilder typischerweise Jitter durch die Bewegung des Scantischs enthalten, wurde ein optischer Flussalgorithmus mit Farneback Displacement16 (FD) mit mehreren Auflösungen verwendet (Ergänzende Anmerkung 3).

Unser Ansatz für selbstüberwachtes Lernen und automatisierte Modellgenerierung beginnt mit der Verwendung von FD zur Automatisierung des Trainingsprozesses (Abb. 1). Typische Segmentierungsstrategien umfassen die Verwendung statischer Informationen in einem einzelnen Bild im Zeitrahmen (t), was Schwierigkeiten bei der verallgemeinerbaren Unterscheidung von „Zellen“- und „Hintergrund“-Pixeln haben kann (Abb. 1a). Im Gegensatz dazu beginnt unser Ansatz mit einer FD-Berechnung basierend auf Bildern aus aufeinanderfolgenden Zeitrahmen (t-1, t). Dies ermöglicht es uns, die allgegenwärtige Natur der intrazellulären Bewegung zu nutzen und einen dynamikbasierten Merkmalsvektor zu erstellen: Pixel mit den höchsten Verschiebungen werden automatisch als „Zellen“-Pixel gekennzeichnet, diejenigen mit der niedrigsten Verschiebung werden automatisch als „Hintergrund“-Pixel usw. gekennzeichnet die in keine der Kategorien passen, bleiben unbeschriftet (Abb. 1b, c). Wir stellen fest, dass diese automatische Selbstkennzeichnung insofern allgemein anwendbar ist, als sie nicht von den Prinzipien einer bestimmten optischen Modalität, eines bestimmten Zelltyps oder eines Phänotyps abhängt. Die Robustheit der Anwendung des optischen Flusses beim selbstüberwachten Lernen beruht auf der Tatsache, dass der Algorithmus sowohl intrazelluläre Bewegungen als auch Bewegungen aufgrund der gesamten Zellmigration erkennt. Infolgedessen tragen Bewegungen interner Strukturkomponenten wie Organellen und Membranfluktuationen zum Klassifizierungsprozess bei, und wenn sie auf fluoreszenzmarkierte Zellen angewendet werden, tragen auch fluoreszenzmarkierte Moleküle dazu bei.

a Die überwiegende Mehrheit der Zellsegmentierungstechniken nutzt einzelne Bildrahmen und die darin enthaltenen statischen Informationen als Mittel zur Unterscheidung von „Zelle“ und „Hintergrund“, die häufig in einem Histogramm dargestellt werden. Der selbstüberwachte Algorithmus nutzt den optischen Fluss als Mittel zur automatisierten Selbstkennzeichnung von Pixeln. b Aufgrund der Prävalenz intrazellulärer Dynamik in Zeitraffer-Lebendzellbildern kann FD für jedes Paar aufeinanderfolgender Bilder \(\left(t-1,{t}\right)\) berechnet werden. Die FD kann dann als Vektoren dargestellt werden, die jedem Pixel zugeordnet sind (rechts). c Die Größe des FD bietet dann eine Möglichkeit, Zellen von ihrem Hintergrund zu unterscheiden, wie im bivariaten Histogramm gezeigt, das die Pixelintensität eines einzelnen Bildes bei t mit den FD-Vektorgrößen, die zwischen aufeinanderfolgenden Bildern berechnet wurden, zusammenzeichnet \(\left( t-1,{t}\right)\). Pixel mit den höchsten Verschiebungen können automatisch als „Zelle“ (links von der grünen gestrichelten Linie) und diejenigen mit den niedrigsten als „Hintergrund“ (rechts von der gelben gestrichelten Linie) gekennzeichnet werden. Pixel, die keines der beiden Kriterien erfüllen, bleiben unbeschriftet, während die selbstbeschrifteten Pixel zur Erstellung eines Trainingsdatensatzes zur Klassifizierung verwendet werden. Zeitinkrement: 600 s, Maßstabsbalken = 20 µm.

Der FD-basierte Selbstkennzeichnungsansatz gibt einen Satz von mit „Zelle“ und „Hintergrund“ gekennzeichneten Pixeln aus, die dann verwendet werden, um zu jedem Zeitpunkt zusätzliche Entropie- und Gradientenmerkmalsvektoren zu generieren. Diese statischen Merkmalsvektoren werden dann verwendet, um ein Klassifikationsmodell zu trainieren und zu generieren, das im letzten Schritt zur Zellsegmentierung auf alle Pixel im Bild angewendet wird.

Der vollständige selbstüberwachte Ansatz zur Segmentierung basierend auf FD-Selbstkennzeichnung ist in Abb. 2 anhand von Zeitraffer-DIC-Bildern mehrerer (oben) und einer einzelnen hervorgehobenen (unten) MDA-MB-231-Zelle dargestellt. Auf den Rohbildern (Abb. 2a, b) scheinen viele Teile einzelner Zellen mit dem Hintergrund zu verschmelzen. Wenn jedoch die FD-Selbstkennzeichnungsstrategie angewendet wird, identifiziert der Algorithmus automatisch Pixel mit hoher Verschiebungsgröße, hervorgehoben als grüne Pixel (Abb. 2c, d), die mit der höchsten Wahrscheinlichkeit ausgewählt werden, korrekt als „Zelle“ gekennzeichnet zu werden. Diese Identifizierung kann auf die allgemeine Zellbewegung oder die intrazelluläre Dynamik zurückzuführen sein, wie durch die blauen optischen Flussvektoren in Abb. 1b hervorgehoben. Um den Hintergrund automatisch zu kennzeichnen, verwendet der Algorithmus Segmente, d. h. einen liberalen (niedrigen) FD-Schwellenwert, der nicht nur Bewegungen von der Zelle, sondern auch von benachbarten Hintergrundpixeln erfasst. Der Algorithmus setzt diese Pixelwerte auf Null und bezeichnet die verbleibenden Pixel als „Hintergrund“ (Abb. 2c, d gelbe Pixel). Einmal auf diese unbeaufsichtigte Weise durch FD (dynamische Merkmale aus dem Bildpaar \(\left(t-1,{t}\right)\)), Entropie- und Gradientenmerkmalsvektoren (statische Merkmale aus dem Bild) als „Zelle“ oder „Hintergrund“ gekennzeichnet bei t) werden für jedes dieser Trainingspixel unter Verwendung ihrer lokalen Nachbarschaft von Pixeln generiert (Ergänzende Anmerkung 1, Abb. S1). Diese zusätzlichen Merkmalsvektoren werden dann verwendet, um ein naives Bayesianisches Klassifikatormodell zu trainieren und zu generieren, das pixelweise auf das gesamte Bild angewendet wird. Die aus den Entropie- und Gradientenmerkmalsvektoren gewonnenen Informationen ermöglichen die Klassifizierung von Pixeln, die in den FD-Trainingsschritten unbeschriftet blieben (Abb. 2c, d graue Pixel). Das kontrastverstärkte Bild (Abb. 2b) und die modellgenerierte Segmentierung (Abb. 2e, f, blaugrüne Pixel) zeigen, dass der Algorithmus in der Lage ist, die Zelle mit hoher Genauigkeit zu segmentieren (DIC-Bild/segmentierte Grenzüberlagerung, Abb. 2g). Wichtig ist, dass dieser Kennzeichnungs-, Trainings- und Klassifizierungsvorgang rekursiv für jedes aufeinanderfolgende Paar von \(\left(t-1,{t}\right)\)Bildern erfolgt, wodurch sich das Klassifikatormodell an sich ändernde Hintergründe und Phänotypen anpassen kann. Durch die Verwendung von FD zur Kennzeichnung der Pixel mit der höchsten Verschiebung als „Zellen“ und der Pixel mit der niedrigsten Verschiebung als „Hintergrund“ wurde der Kennzeichnungsprozess automatisiert (oder „selbstüberwacht“) und es sind keine manuellen Eingaben oder kuratierten Trainingsbibliotheken erforderlich.

a Das kontrastverstärkte DIC-Bild mehrerer und einer einzelnen hervorgehobenen MDA-MB-231-Zelle veranschaulicht den Intensitätsbereich, der den Zellen innewohnt. (20X-Objektiv). c, d Unüberwachtes Lernen über FD: FD mit hohem Schwellenwert wird verwendet, um nur die Pixel auszuwählen, die die höchsten Verschiebungsgrößen aufweisen, und sie als „Zelle“ (grüne Pixel) zu kennzeichnen. In ähnlicher Weise wird ein FD mit niedrigem Schwellenwert verwendet, um Pixel mit einem viel größeren Bereich an Verschiebungsgrößen zu identifizieren als der Modus mit hohem Durchfluss. Die Pixel mit der geringsten Verschiebungsgröße werden als „Hintergrund“ (gelbe Pixel) bezeichnet. Pixel, die FD zwischen diesen Bereichen aufweisen, bleiben unbeschriftet (graue Pixel). e, f Überwachtes Lernen anhand selbstgekennzeichneter Trainingsdaten. Die selbstbeschrifteten Pixel (grün und gelb) werden dann verwendet, um statische Merkmalsvektoren zu generieren, die wiederum zum Trainieren des Klassifikatormodells verwendet werden. g Der blaue Umriss ist die resultierende Segmentierung, die alle vom FD-trainierten Modell als „Zelle“ klassifizierten Pixel umreißt und auch dem Bild in b überlagert wird. Dieser Vorgang wird bei jedem Zeitschritt wiederholt, wodurch die neuesten Bilder zur Aktualisierung der Trainingsdaten verwendet werden. Maßstabsleiste: 25 µm (20X-Objektiv, Zeitinkrement: 300 s).

Bei Bildern mit extrem geringem Kontrast können angesichts der anfänglichen FD-Schwellenwerteinstellung zu wenige Trainingspixel mit der Bezeichnung „Zelle“ vorhanden sein, als dass eine robuste Segmentierung erfolgen könnte. In solchen Fällen berechnet der Algorithmus die mit „Zellen“-Pixeln verknüpfte Entropie und reduziert iterativ den FD-Schwellenwert, bis sich der zugehörige „Zellen“-Entropie-Merkmalsvektor deutlich von dem des „Hintergrund“-Entropie-Merkmalsvektors unterscheidet.

Ein zentrales Thema dieser Arbeit ist, dass maschinelle Lernansätze, die überwachtes Training erfordern, zeitaufwändig, subjektiv und letztendlich ineffektiv sein können. Der Trainingsprozess gilt allgemein als der zeitaufwändigste Aspekt maschineller Lernansätze. Aufgrund der Undurchsichtigkeit vieler Algorithmen für maschinelles Lernen und insbesondere von Deep-Learning-Techniken sind die Gründe für den Erfolg oder Misserfolg eines Trainingsdatensatzes für den Endbenutzer oft nicht klar. Daher ist der Prozess ein Versuch-und-Irrtum-Prozess, der eine erneute Schulung erfordert, wenn die Leistung des Modells als nicht ausreichend erachtet wird14. Um die Segmentierung durch unseren selbstüberwachten Ansatz zu bewerten, haben wir einen vielfältigen Bilddatensatz zusammengestellt (Abb. 3, Ergänzende Anmerkung 2, Tabelle S1). Zum Vergleich mit einem überwachten Lernansatz mit einer kuratierten Trainingsbibliothek haben wir uns für das kürzlich beliebte künstliche neuronale Netzwerk CellPose7 entschieden, das aus einem Modell besteht, das auf 70.000 manuell annotierten Objekten vorab trainiert wurde und mehrere optische Modalitäten, Zelltypen und Objekte umfasst. Wie unser Ansatz ist CellPose darauf ausgelegt, ein generalistisches Modell zu sein, das auf die breitere zellbiologische Forschungsgemeinschaft angewendet wird, und verfügt darüber hinaus über die Möglichkeit einer automatisierten Analyse, was es zu einem idealen Vergleichsalgorithmus macht. Die F1-Score-Metrik wurde berechnet, um die Qualität der Segmentierung zu bewerten, die von jeder Methode für jeden Datensatz durchgeführt wurde. Für jeden Datensatz werden Zellen manuell segmentiert, um als Grundlage für die Segmentierung für jede Methode zu dienen. Die wahren Positiven (TP), falschen Positiven (FP) und falschen Negativen (FN) jeder Methode werden pixelweise berechnet. Der F1-Score ist dann definiert als:

a Phasenkontrast von Hs27-Fibroblasten (10-faches Objektiv, Zeitschritt: 1200 s) b Durchlicht von Dictyostelium (10-faches Objektiv, Zeitschritt: 60 s) c Phasenkontrast von MDA-MB-231 (10-faches Objektiv, Zeitschritt: 600 s) d IRM-Bild einer einzelnen Hs27-Zelle (40X-Objektiv, Zeitinkrement: 600 s). e DIC-Bild von MDA-MB-231-Zellen (20-faches Objektiv, Zeitinkrement: 120 s) f Fluoreszenzbild einer einzelnen mit lifeAct (GFP-Actin-Konjugat) transfizierten A549-Zelle (pseudofarbig) mit dem zugehörigen FD-Vektorplot (100-faches Objektiv). , Zeitschritt: 10 s). Die Einfügungen i, ii, iii heben umrandete Bildbereiche hervor. Weiße Pfeile weisen auf Beispiele von Trümmern hin, die aufgrund fehlender Bewegung oder automatischer Größenfilterung korrekt als „Hintergrund“ gekennzeichnet wurden. Der Kontrast der Bilder wurde verbessert, um kontrastarme Merkmale und Hintergrundinhomogenitäten hervorzuheben. Das DIC-Bild e wurde zusätzlich mit einem Schärfungsfilter verbessert, um interferenzbedingte Schatten von Zellmerkmalen hervorzuheben. Maßstabsbalken: a, b, c: 50 µm; d, e: 25 µm; f: 10 µm.

Die Bilder in Abb. 3 zeigen die Allgemeingültigkeit dieses Ansatzes und demonstrieren auch, wie der selbstüberwachte Algorithmus zusätzlich häufig erforderliche manuelle Eingaben wie Größenfilterung und Lochfüllung automatisiert. Die segmentierten Zellen wurden aus Bildern verarbeitet, die von einer Reihe von Zelltypen, Bildgebungsmodalitäten, Vergrößerungen und Zeitinkrementen aufgenommen wurden (Ergänzende Anmerkung 2, Tabelle S1). Der FD-Algorithmus ermöglichte einen unkomplizierten Ansatz zur automatisierten Größenfilterung, einem häufigen vom Benutzer einstellbaren Parameter in überwachten maschinellen Lernansätzen. Um dies zu erreichen, wurde eine eigenständige FD-Anwendung auf die Bilder angewendet, der die oben beschriebenen zusätzlichen Schritte der Selbstoptimierung und Modellbildung fehlten. Obwohl einige Zellmerkmale fehlen, erwies sich dieser einfachere, schnellere Ansatz als mehr als präzise genug, um die durchschnittliche Zellgröße abzuschätzen und viel kleinere Objekte auszuschließen und so den Größenfilterungsprozess zu automatisieren. Da fremde Trümmer oft nicht die Bewegung der lebenden Zellen hatten, wurden diese Trümmer vom FD-Algorithmus automatisch auch als Hintergrund markiert. Abbildung 3a, b demonstrieren die Fähigkeit des selbstüberwachten Codes, Größenfilter zu erstellen und sich gleichzeitig an Zelltypen unterschiedlicher Größe anzupassen, indem sie die Segmentierung menschlicher Fibroblasten (10X, Phasenkontrast) mit denen der viel kleineren Dictyostelium-Amöboid-Zellen (10X, Phasenkontrast) vergleichen. Durchlicht). Fremdkörpermerkmale in den Hs27-Bildern (Abb. 3a, weiße Pfeile) werden korrekt als „Hintergrund“ identifiziert, obwohl sie in Größe und Intensität den Dictyostelium-Zellen in Abb. 3b ähneln. Die in Abb. 3a, b beobachteten Hintergrundinhomogenitäten, die möglicherweise fälschlicherweise als „Zelle“ bezeichnet werden könnten, werden korrekt identifiziert, da sie von Bild \(t-1\) bis Bild \(t\) relativ konstant bleiben. Die Segmentierungsergebnisse der MDA-MB-231-Zellen (10-fach, Phasenkontrast) in Abb. 3c veranschaulichen die Fähigkeit des Algorithmus, sich an ein breites Spektrum von Phänotypen anzupassen, von abgerundeter Abb. 3c(i) bis hin zu gespreizter Abb. 3c(ii). , die ohne Benutzereingabe aktiviert wird, indem das Modell kontinuierlich für aufeinanderfolgende Bildpaare neu trainiert wird.

Der Algorithmus funktioniert robust für eine Reihe optischer Modalitäten und Vergrößerungen, wie in Abb. 3d – f dargestellt. Abbildung 3d, e sind Segmentierungsergebnisse aus IRM-Bildern (40X, Hs27-Zelle) und DIC-Bildern (20X, MDA-MB-231). Als Beispiel für die Fluoreszenzbildgebung ist in Abb. 3f eine selbstüberwachte Segmentierung einer mit GFP-Actin markierten A549-Zelle bei 100-facher Vergrößerung dargestellt. Als zusätzliche Option kann FD nicht nur als Algorithmus-Kennzeichnungselement, sondern auch als Messwerkzeug eingesetzt werden, wie im Vektordiagramm in Abb. 3f dargestellt. Die aufgetragenen FD-Vektoren (blau) zeigen die Größe und Richtung des gemessenen GFP-markierten Aktinflusses zwischen Bildern. Solche Messungen haben sich als nützlich für die Quantifizierung der intrazellulären Protein- und Kalziumsignaldynamik erwiesen17,18,19.

Auch das Füllen von Löchern, eine weitere häufig erforderliche manuelle Eingabe für bildverarbeitungsbasierte und maschinelle Lernalgorithmen, wurde durch diesen Ansatz automatisiert. Häufige Beispiele dafür, dass eine Eingabe zum Füllen von Löchern erforderlich ist, sind fluoreszierende Markierungen, die nicht in den Zellkern eindringen, oder, für Markierungs-freie Mikroskopiemodi wie Phasenkontrast, großflächige Zellen, bei denen es dem Algorithmus schwerfällt, die interferenzverstärkten Zellkanten mit den zu verknüpfen geschlossene Lamellipodien. Wir fanden heraus, dass Bewegungen innerhalb von Zellen durch FD allgegenwärtig erfasst wurden, unabhängig von der Bildgebungsmodalität oder davon, ob die Zellmembran, der Zellkern oder das Zytoplasma abgebildet wurden. Da die Bewegungserkennung für ein bestimmtes Pixel innerhalb eines mit „Zelle“ gekennzeichneten Bereichs weitaus häufiger vorkam, wurde festgestellt, dass ein festes morphologisches Unschärfewerkzeug (kreisförmig mit einem Radius von 5 Pixeln) unabhängig vom Zelltyp oder der Mikroskopkonfiguration zuverlässig Löcher füllt. Es wurde festgestellt, dass die berechnete Zellfläche für einen Bereich von Unschärfewerkzeugradien invariant ist (Ergänzende Anmerkung 4, Abb. S3). In allen Fällen reichten die Verwendung des optischen Flusses zur Bewegungserkennung und das Unschärfewerkzeug mit einem Radius von 5 Pixeln aus, um die Zelle korrekt auszufüllen.

Ein Vergleich unseres SSL-Ansatzes mit CellPose ist in Abb. 4 anhand von F1-Scores dargestellt. Oben finden Sie eine kurze Beschreibung jedes Datensatzes, einschließlich der Anzahl der annotierten Beschriftungen, die in jedem Modell verwendet und auf wie viele Objekte (Zellen) angewendet wurden ) innerhalb jedes Datensatzes. CellPose7 ist ein relativ neues Framework für überwachtes Lernen, das darauf trainiert ist, Intensitätsgradienten zu identifizieren und auf einer allgemeinen U-Net-Architektur für neuronale Netzwerke basiert20. Um dies zu erreichen, haben die Autoren erhebliche Ressourcen aufgewendet, um ihr Modell anhand von 70.000 manuell annotierten Objekten zu trainieren, darunter sowohl fluoreszierende als auch tagfreie Bilder, und dies wurde direkt auf die Datensätze angewendet, die sowohl gängige als auch spezialisiertere Mikroskopiemodi in Zellen repräsentieren Biologie. Im Gegensatz dazu trainierte unser SSL die Datensätze selbst, ohne dass menschliche Eingaben erforderlich waren (#L = 0). Abbildung 4 zeigt, dass SSL in allen Datensätzen eine gute Leistung erbrachte und F1-Werte von ~0,7–0,9 erreichte, was auf eine robuste Leistung bei verschiedenen Live-Cell-Bildern hinweist. SSL übertraf CellPose in vier der für die Validierung in dieser Studie verwendeten Datensätze, bei denen es sich überwiegend um Datensätze mit geringerer Vergrößerung und mehrzelligen Zellen handelte. In den beiden verbleibenden Datensätzen mit stärkerer Vergrößerung einzelner Zellen war die Leistung jeder Methode statistisch gleichwertig. Einzelheiten zur CellPose-Segmentierung der Datensätze finden Sie in der Ergänzenden Anmerkung 5, Abbildungen. S4–S9.

Die obere Zeile enthält den Namen des Datensatzes mit Anmerkungen zu Vergrößerung, optischer Modalität, Zelltyp und einer kurzen Beschreibung der Bildeigenschaften. #L steht für die Anzahl der annotierten Beschriftungen, die für das Modelltraining verwendet werden, und #O steht für die Anzahl der Objekte, die vom Modell innerhalb eines bestimmten Datensatzes segmentiert werden sollen. *CellPose verfügt über einen einzigen Parameter, einen Größenfilter, der automatisch geschätzt werden kann. Für einige Datensätze wurde jedoch die beste Segmentierung durch manuelles Optimieren dieses Größenfilters gefunden. Die folgenden Abbildungen zeigen die Umrisse von Ground Truth (grüne durchgezogene Linien), SSL (cyan große Striche) und CellPose (rot kleine Striche), die über das endgültige Bild des Datensatzes gelegt sind.

Im letzten Jahrzehnt gab es erhebliche Anstrengungen und Verbesserungen bei der Anwendung des maschinellen Lernens (ML) und insbesondere überwachter Lerntechniken zur Zellsegmentierung. Die wohldefinierte Natur des überwachten Lernrahmens kann jedoch viele Annahmen über die Beziehung zwischen den Daten und den entsprechenden Bezeichnungen verbergen – das heißt, dass Menschen die Kennzeichnungs- und Trainingsprozesse während der Vorverarbeitungsschritte aktiv überwachen. Trotz großer Verbesserungen, die ML zugänglicher machen7,10,21, ist diese Vorverarbeitungsanforderung des überwachten Lernens einer der Gründe, warum ML noch nicht umfassend von Informatikern in die breitere Zellbiologie-Forschungsgemeinschaft übergegangen ist – es behindert die Effizienz und stellt eine ernsthafte Herausforderung dar zur Sicherstellung der Reproduzierbarkeit bei der Biobildanalyse. Daher ist es von entscheidender Bedeutung, dass das Fachgebiet einen hohen Standard allgemeiner Strategien anstrebt, mit denen Zellbilder aus jeder Forschungsgruppe ohne Eingaben des Benutzers segmentiert werden können. Dies war in der Tat das Ziel des Data Science Bowl 2018, bei dem es darum ging, einen vollständig automatisierten Algorithmus für die Segmentierung fluoreszierend markierter Kerne zu etablieren22. Unser SSL-Ansatz stellt eine natürliche Erweiterung dieses Gedankengangs dar und weitet die Automatisierung auf die gesamte Zellsegmentierung in Zeitrafferbildern aus. Das Ziel dieser Arbeit besteht darin, eine breit anwendbare ML-Strategie (1) zu erstellen, ohne dass Eingaben oder Konfigurationen erforderlich sind vom Endbenutzer und (2) ohne die Notwendigkeit einer Datenvorverarbeitung (z. B. manuelle Etikettierung).

Unser SSL-Ansatz erreicht dies durch den Aufbau eines sich kontinuierlich weiterentwickelnden Modells, das sich bei jedem neuen Bild über die Farneback-Verschiebung (FD) neu trainiert, einen dynamischen Merkmalsvektor, der in die Datenstruktur von Zeitrafferbildern eingebettet ist. Aus der FD können problemlos zusätzliche statische Merkmalsvektoren für das Modelltraining generiert werden. In dieser Arbeit haben wir hauptsächlich zwei solcher statischen Merkmalsvektoren untersucht – Gradient und Entropie –, aber der Code ist in dieser Hinsicht modular und es gibt viele zusätzliche Bildmerkmale, die je nach Anwendung hinzugefügt werden können. Während der optische Fluss bereits früher für biologische Bilder verwendet wurde, wurde er größtenteils im Zusammenhang mit der räumlich-zeitlichen Charakterisierung von fluoreszenzmarkierten Proteinen23,24 verwendet und viel seltener allgemein auf die Zellsegmentierung angewendet15. Hier zeigen wir, dass die von FD erfasste Entwicklung der Zelldynamik als leistungsstarkes Mittel zum kontinuierlichen Selbsttraining von ML-Algorithmen genutzt werden kann. Eine Konsequenz dieses kontinuierlichen Trainings besteht darin, dass Zellmerkmale oder Hintergrundbeleuchtung, die sich im Laufe der Zeit zwangsläufig ändern, nicht von vornherein manuell vorhergesehen werden müssen, da die gleichen zu segmentierenden Bilder auch für das Training verwendet werden.

Aufgrund des exponentiellen Wachstums der ML-Anwendung in den Biowissenschaften in den letzten Jahren25 wurde der Etablierung und Einführung bewährter Verfahren mehr Aufmerksamkeit geschenkt, um die Reproduzierbarkeit der ML-Anwendung in der Biobildanalyse sicherzustellen. Häufig drehen sich die Diskussionen um Themen wie die Berichterstattung über die Dokumentation von Trainingsdatensätzen, Datenerweiterung und verwendete Hyperparameter, um nur einige zu nennen, um Transparenz darüber zu erreichen, wie ML-Modelle trainiert und angewendet wurden14. Der unbelastete Ansatz unserer hier beschriebenen SSL-Strategie umgeht viele dieser Probleme auf den Punkt, da er vollständig automatisiert ist – und erreicht problemlos den kürzlich etablierten „Goldstandard“ für die Reproduzierbarkeit von ML in den Biowissenschaften26, solange Endbenutzer ihre Daten einfach erstellen verfügbar. Selbst dieser Goldstandard berücksichtigt jedoch nicht die Bedenken hinsichtlich der in den Netzwerken selbst eingebauten Verzerrungen sowohl bei der Auswahl als auch bei der Annotation von Trainingsdaten in Vorverarbeitungsschritten11,12,13,14. Beispielsweise haben die Autoren der LIVEcell-Bibliothek unglaubliche Sorgfalt auf die Strukturierung und Verwaltung der Anmerkungen ihrer Bibliothek verwendet, um Verzerrungen8 aufgrund der industriellen und regulatorischen Anwendung ihrer Arbeit zu vermeiden. Aufgrund der enormen Kosten und Ressourcen, die mit ihrer Implementierung verbunden sind, werden diese Vorsichtsmaßnahmen jedoch in forschungsbasierten ML-Trainingsbibliotheken selten angewendet. Auch hier umgeht die durch SSL ermöglichte Automatisierung Bedenken hinsichtlich einer Verzerrung bei der Datenkennzeichnung/-vorverarbeitung weitgehend und bietet eine attraktive Strategie, um die Reproduzierbarkeit bei ML-Bemühungen in größerem Maßstab sicherzustellen.

Im Allgemeinen stellt das Modelltraining ein erhebliches Hindernis sowohl für die Zugänglichkeit10 als auch für die Reproduzierbarkeit14 von maschinellem Lernen in der Zellbiologie dar. Nach dem Training können Modelle effektiv auf Daten angewendet werden, die denen ähneln, auf denen sie ursprünglich trainiert wurden. Allerdings ist die Verwendung vorab trainierter Modelle auf neue und unterschiedliche Datensätze oder das Transferlernen eine aktuelle Hürde, mit der ML und insbesondere SL-Ansätze zu kämpfen haben. Die relativ schlechte Leistung von CellPose bei unseren Validierungsdatensätzen trotz der Verwendung einer großen und vielfältigen Trainingsbibliothek ist ein Beweis dafür, wie sensibel die Leistung moderner ANNs auf die Auswahl und Kuratierung von Trainingsdatensätzen ist . Wir stellen fest, dass CellPose in dieser Hinsicht nicht einzigartig ist, sondern dass dieses Phänomen vielmehr systemisch bei SL-Ansätzen und insbesondere bei ANNs27 auftritt.

Der hier vorgestellte Algorithmus weist keine übermäßig ausgefeilte Architektur auf und erfordert daher nicht die hohe Rechenleistung/Infrastruktur, die für viele ML-Pipelines üblich ist10. Im Gegenteil, dieser Code wurde nur auf Laptops validiert und konnte bei der Verwendung dieses Algorithmus auf hochauflösende Mikroskopiedaten akzeptable Verarbeitungszeiten erzielen. Beispielsweise kann ein Paar von 1216 × 1920 8-Bit-Bildern auf den Mittelklasse-Laptops, die wir zum Testen verwendet haben, in ca. 7 s selbst segmentiert werden. Dies trägt dazu bei, dass unser SSL-Algorithmus für gängige Zellbiologielabore zugänglich ist, die sich hauptsächlich auf Windows-basierte Mikroskopiesysteme konzentrieren. Bei der Konstruktion unseres Algorithmus haben wir zunächst Klassifikatoren wie Random Forests, SVM und K-Nearest Neighbor untersucht. Allerdings wurde der Naive-Bayes-Klassifikator als flexible und effektive Option ausgewählt, da er aufgrund seiner vereinfachten Annahme der Merkmalsunabhängigkeit bekanntermaßen einen guten Bias-Varianz-Kompromiss aufweist und sich im Kontext der hier beschriebenen Zellsegmentierung als robust erwiesen hat.

Der vorgestellte SSL-Algorithmus weist Einschränkungen auf. Erstens und vielleicht am offensichtlichsten ist, dass es nur auf Live-Cell-Bilder angewendet werden kann. Zweitens erfordert es aufgrund seiner Natur der Selbstmarkierung über den optischen Fluss einen stabilen Versuchsaufbau, um Zellen korrekt von ihrem Hintergrund zu unterscheiden – wenn der Mikroskoptisch seitlich driftet oder der Fokus driftet, wird davon ausgegangen, dass nur Zellen dies tun Bewegungen relativ zu einem stabilen Hintergrund sind ungültig. In unseren Experimenten haben wir herausgefunden, dass die heute kommerziell erhältlichen Mikroskope für lebende Zellen mehr als stabil genug sind, um diese Kriterien zu erfüllen, und wenn nicht, lässt sich Auto-Alignment-Software (wie die in ImageJ enthaltene) problemlos integrieren. In ihrer aktuellen Form ist die Software nur für die semantische Segmentierung und nicht für die Instanzsegmentierung (dh das Trennen berührender Zellen) konzipiert. Der Code ist jedoch modular aufgebaut, und zukünftige Arbeiten werden sich darauf konzentrieren, der von SSL generierten Binärmaske eine Entklumpungstechnik wie Watershed-Methoden hinzuzufügen.

Nach unserem besten Wissen stellt diese Arbeit den ersten Versuch seiner Art zur automatisierten Zellsegmentierung dar, der auf Zelltypen, optische Modalitäten oder andere Versuchsaufbauten in der Zellbiologie (z. B. aus verschiedenen Labors) angewendet werden kann. Der Kern unseres Ansatzes besteht darin, den optischen Fluss, insbesondere eine Farnebeck-Verschiebung (FD), zwischen aufeinanderfolgenden Bildern von Zeitrafferbildern lebender Zellen zu nutzen, um Trainingsdaten für ein Modell selbst zu kennzeichnen, das Zellen von ihrem Hintergrund unterscheidet. Diese selbstüberwachte Strategie ermöglicht eine vollständige Automatisierung – sie reduziert den Aufwand überwachter Lerntechniken drastisch, eliminiert Quellen von Verzerrungen bei der Kuratierung und Kennzeichnung von Trainingsdaten und stellt insgesamt einen Schritt dar, um sowohl die Zugänglichkeit von ML für Zellbiologielabore zu verbessern als auch eine Strategie einzuführen das unterstützt die Reproduzierbarkeit in ML.

Alle Säugetierzellen wurden in DMEM (ATCC, Nr. 30-2002), ergänzt mit 10 % fötalem Rinderserum (ATCC, Nr. 30-2020), bei 37 °C und 5 % CO2 kultiviert, und die gesamte Bildgebung von Säugetierzellen wurde serumfrei durchgeführt Bedingungen (nur DMEM). Hs27-Fibroblasten (ATCC, #CRL 1634) wurden wie zuvor beschrieben auf planaren Abschnitten von Quarz-Kontaktführungschips abgebildet28. MDA-MB-231-Zellen (ATCC #HTB-26) wurden auf Wellplatten mit Glasboden abgebildet, die mit 25 µg/ml Fibronektin (Gibco #33016015) oder funktionalisierten goldbeschichteten Deckgläsern beschichtet waren, wie zuvor beschrieben29. A549-Zellen (ATCC #CCL-185) wurden wie zuvor beschrieben auf planaren Abschnitten von Quarz-Nanostrukturchips abgebildet30. Bei den Dictyostelium-Zellen handelte es sich um Wildtyp-AX2-Zellen, die großzügigerweise vom Devreotes-Labor der Johns Hopkins University zur Verfügung gestellt wurden. Sie wurden axenisch in HL5 bei 22 °C kultiviert und auf Wellplatten mit Glasboden abgebildet, wie zuvor beschrieben31. Einzelheiten zur Mikroskopie für jeden Zelltyp, einschließlich Mikroskopiemodus, Vergrößerung, numerischer Apertur, Kamera und Wartezeit zwischen den Bildern, sind in der Ergänzenden Anmerkung 2 aufgeführt.

Jedes segmentierte Bild wurde aus zwei aufeinanderfolgenden Bildern in der Zeitreihe (N = 2) erstellt. Die selbstüberwachte Methodik ist von Natur aus blind und reproduzierbar, da sie nicht auf kuratierten Datensätzen oder vom Benutzer festgelegten Parametereinstellungen basiert, sondern sich anhand der Bilddaten trainiert.

Weitere Informationen zum Forschungsdesign finden Sie in der mit diesem Artikel verlinkten Nature Research Reporting Summary.

In Abb. ausgewertete Bilder. 3, 4 sind als TIFF-Dateien in den Supplementary Data verfügbar und auch in den bei Zenodo32 verfügbaren Codepaketen enthalten.

Die SSL-Anwendung ist als eigenständiger GUI-Download für Windows-, Mac- und Linux-Betriebssysteme sowie als separates SSL-Matlab-Quellcodepaket verfügbar. Beide Pakete stehen bei Zenodo32 zum Download bereit. Sie sind hier als Ergänzungssoftware 1 bzw. Ergänzungssoftware 2 enthalten und die zugehörigen ReadMe-Dateien wurden in den Ergänzungshinweisen 6 und 7 abgedruckt.

Sommer, C. & Gerlich, DW Maschinelles Lernen in der Zellbiologie – Computern beibringen, Phänotypen zu erkennen. J. Cell Sci. 126, 5529–5539 (2013).

CAS PubMed Google Scholar

Deep Learning erhält Zeit für den Umfang. Nat. Methoden 16, 1195–1195 (2019).

Moen, E. et al. Deep Learning für die zelluläre Bildanalyse. Nat. Methoden 16, 1233–1246 (2019).

Artikel CAS PubMed PubMed Central Google Scholar

Falk, T. et al. U-Net: Deep Learning für Zellzählung, -erkennung und -morphometrie. Nat. Methoden 16, 67–70 (2019).

Artikel CAS PubMed Google Scholar

Lin, T.-Y. et al. Europäische Konferenz über Computer Vision (Springer, 2020).

Schwendy, M., Unger, RE & Parekh, SH EVICAN – ein ausgewogener Datensatz für die Algorithmenentwicklung bei der Zell- und Kernsegmentierung. Bioinformatik 36, 3863–3870 (2020).

Artikel CAS PubMed PubMed Central Google Scholar

Stringer, C., Wang, T., Michaelos, M. & Pachitariu, M. Cellpose: ein generalistischer Algorithmus für die Zellsegmentierung. Nat. Methoden 18, 100–106 (2021).

Artikel CAS PubMed Google Scholar

Edlund, C. et al. LIVECell – Ein umfangreicher Datensatz für die markierungsfreie Segmentierung lebender Zellen. Nat. Methoden 18, 1–8 (2021).

Möckl, L., Roy, AR & Moerner, W. Deep Learning in der Einzelmolekülmikroskopie: Grundlagen, Vorbehalte und aktuelle Entwicklungen. Biomed. Opt. Express 11, 1633–1661 (2020).

Artikel PubMed PubMed Central Google Scholar

von Chamier, L. et al. Demokratisierung von Deep Learning für die Mikroskopie mit ZeroCostDL4Mic. Nat. Komm. 12, 1–18 (2021).

Google Scholar

von Chamier, L., Laine, RF & Henriques, R. Künstliche Intelligenz für die Mikroskopie: Was Sie wissen sollten. Biochemische Soc. Trans. 47, 1029–1040 (2019).

Artikel Google Scholar

Munafò, MR et al. Ein Manifest für reproduzierbare Wissenschaft. Nat. Summen. Verhalten. 1, 1–9 (2017).

Artikel Google Scholar

Zhong, Q., Busetto, AG, Fededa, JP, Buhmann, JM & Gerlich, DW Unbeaufsichtigte Modellierung der Dynamik der Zellmorphologie für die Zeitraffermikroskopie. Nat. Methoden 9, 711–713 (2012).

Artikel CAS PubMed Google Scholar

Laine, RF, Arganda-Carreras, I., Henriques, R. & Jacquemet, G. Vermeidung einer Replikationskrise in der Deep-Learning-basierten Bioimage-Analyse. Nat. Methoden 18, 1136–1144 (2021).

Artikel CAS PubMed PubMed Central Google Scholar

Robitaille, MC, Byers, JM, Christodoulides, JA & Raphael, MP Robuster optischer Flussalgorithmus für die allgemeine Segmentierung einzelner Zellen. PLoS One 17, e0261763 (2022).

Artikel CAS PubMed PubMed Central Google Scholar

Farneback, G. in Image Analysis, Proceedings Vol. 2749 Vorlesungsunterlagen in Informatik (Hrsg. J. Bigun & T. Gustavsson) 363–370 (Springer, 2003).

Buibas, M., Yu, D., Nizar, K. & Silva, GA Kartierung der räumlich-zeitlichen Dynamik der Kalziumsignalisierung in zellulären neuronalen Netzwerken mithilfe des optischen Flusses. Ann. Biomed. Ing. 38, 2520–2531 (2010).

Artikel PubMed PubMed Central Google Scholar

Delpiano, J. et al. Durchführung optischer Flusstechniken zur Bewegungsanalyse fluoreszierender Punktsignale in der konfokalen Mikroskopie. Mach. Vis. Appl. 23, 675–689 (2012).

Artikel Google Scholar

Lee, RM et al. Quantifizierung der topographiegesteuerten Aktindynamik über Skalen hinweg mithilfe des optischen Flusses. Mol. Biol. Zelle 31, 1753–1764 (2020).

Artikel CAS PubMed PubMed Central Google Scholar

Ronneberger, O., Fischer, P. & Brox, T. in der International Conference on Medical Image Computing and Computer-Assisted Intervention (Springer, 2020).

Berg, S. et al. Ilastik: interaktives maschinelles Lernen für die (Bio-)Bildanalyse. Nat. Methoden 16, 1226–1232 (2019).

Caicedo, JC et al. Kernsegmentierung bei Bildgebungsexperimenten: der Data Science Bowl 2018. Nat. Methoden 16, 1247–1253 (2019).

Artikel CAS PubMed PubMed Central Google Scholar

Lee, R. et al. Quantifizierung der topographiegesteuerten Aktindynamik über Skalen hinweg mithilfe des optischen Flusses. Mol. Biol. Zelle 31, 1753–1764 (2020).

Collin, O. et al. Raumzeitliche Dynamik aktinreicher Adhäsionsmikrodomänen: Einfluss der Substratflexibilität. J. cell Sci. 119, 1914–1925 (2006).

Artikel CAS PubMed Google Scholar

Walsh, I. et al. DOME: Empfehlungen für die überwachte Validierung maschinellen Lernens in der Biologie. Nat. Methoden 18, 1122–1127 (2021).

Artikel CAS PubMed Google Scholar

Heil, BJ et al. Reproduzierbarkeitsstandards für maschinelles Lernen in den Biowissenschaften. Nat. Methoden 18, 1132–1135 (2021).

Artikel CAS PubMed PubMed Central Google Scholar

Azulay, A. & Weiss, Y. Warum lassen sich tiefe Faltungsnetzwerke so schlecht auf kleine Bildtransformationen verallgemeinern? arXiv https://doi.org/10.48550/arXiv.1805.12177 (2018).

Robitaille, MC et al. Monolithische Quarzplattform zur zellulären Kontaktführung. Frau Commun. 10, 242–251 (2020).

Artikel CAS Google Scholar

Robitaille, MC et al. Problem der verminderten cRGD-Oberflächenaktivität und was dagegen getan werden kann. Acs Appl. Mater. Schnittstellen 12, 19337–19344 (2020).

Artikel CAS PubMed Google Scholar

Raghu, D. et al. Nanoplasmonische Säulen, die für den Nachweis einzelner Exosomen entwickelt wurden. PLoS One https://doi.org/10.1371/journal.pone.0202773 (2018).

Miao, YC et al. Durch die Änderung der Schwelle eines erregbaren Signaltransduktionsnetzwerks werden die Zellmigrationsmodi verändert. Nat. Zellbiol. 19, 329–340 (2017).

Artikel CAS PubMed PubMed Central Google Scholar

Robitaille, MC, Byers, JM, Christodoulides, JA & Raphael, MP Selbstüberwachter Code und Daten für maschinelles Lernen zur Segmentierung von Live-Zellbildern (Matlab und eigenständige GUIs). Zenodo https://doi.org/10.5281/zenodo.7108601 (2022).

Referenzen herunterladen

Die Autoren danken dem Devreotes-Labor der Johns Hopkins University für die Zelllinie Dictyostelim discoideum. MCR dankt dem National Research Council Research Associateship Program und dem Jerome and Isabella Karle Distinguished Scholar Fellowship Program für die Unterstützung. Die Finanzierung dieses Projekts erfolgte durch das Office of Naval Research im Rahmen des Basic Research Program des Naval Research Laboratory und durch das Biological Technology Office der Defense Advanced Research Program Agency.

Abteilung für Materialwissenschaft und -technologie, US Naval Research Laboratory, Washington, DC, USA

Michael C. Robitaille, Jeff M. Byers, Joseph A. Christodoulides und Marc P. Raphael

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

Sie können diesen Autor auch in PubMed Google Scholar suchen

MCR: Konzeptualisierung, Methodik, Untersuchung, Datenkuration, Software, Visualisierung und Schreiben. JMB: Konzeptualisierung, Methodik, formale Analyse, Software und Visualisierung. JAC: Ressourcen, Validierung und Schreiben. MPR: Konzeptualisierung, Finanzierungsbeschaffung, Methodik, Untersuchung, Software, Visualisierung und Schreiben.

Korrespondenz mit Marc P. Raphael.

Die Autoren geben an, dass keine Interessenkonflikte bestehen.

Informationen zur Peer-Review Dieses Manuskript wurde zuvor in einer anderen Nature Portfolio-Zeitschrift begutachtet. Das Manuskript wurde ohne weitere Begutachtung bei Communications Biology als zur Veröffentlichung geeignet erachtet. Hauptredakteur: Gene Chong.

Anmerkung des Herausgebers Springer Nature bleibt hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten neutral.

Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die ursprünglichen Autor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht durch gesetzliche Vorschriften zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.

Nachdrucke und Genehmigungen

Robitaille, MC, Byers, JM, Christodoulides, JA et al. Selbstüberwachtes maschinelles Lernen für die Segmentierung von Live-Zellbildern. Commun Biol 5, 1162 (2022). https://doi.org/10.1038/s42003-022-04117-x

Zitat herunterladen

Eingegangen: 26. August 2022

Angenommen: 14. Oktober 2022

Veröffentlicht: 02. November 2022

DOI: https://doi.org/10.1038/s42003-022-04117-x

Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:

Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.

Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt

Durch das Absenden eines Kommentars erklären Sie sich damit einverstanden, unsere Nutzungsbedingungen und Community-Richtlinien einzuhalten. Wenn Sie etwas als missbräuchlich empfinden oder etwas nicht unseren Bedingungen oder Richtlinien entspricht, kennzeichnen Sie es bitte als unangemessen.