Laden Sie zunächst eine Deep-Learning-Bibliothek in Python, z. B. PyTorch. Importieren Sie Torch- und Torchvision-Modelle als Modelle. Laden Sie als Nächstes das vortrainierte VCG16-Modell.
Um den Pseudocode des DCL-Algorithmus zu generieren, geben Sie den Bilddatensatz SOD in das Eingabefeld ein und verwenden Sie das DCL-Modell als Ausgabefeld. Initialisieren Sie nun das DCL-Modell mit dem VGG16-Backbone-Netzwerk. Verarbeiten Sie das Bilddataset vor und teilen Sie es dann in Trainings- und Validierungssätze auf.
Definieren Sie die Verlustfunktion zum Trainieren des DCL-Modells. Legen Sie die Trainingshyperparameter auf 0,0001 für die Lernrate, 50 als Anzahl der eingestellten Trainingsepochen, acht als Batchgröße und Adam als Optimierer fest. Kombinieren Sie die Ausgaben der DCL- und DEDN-Netzwerke und verfeinern Sie die Salienzkarte mit einem vollständig verbundenen bedingten Zufallsfeldmodell.
Um das Bild zu verarbeiten, klicken Sie auf den Ausführungscode, um die GUI-Oberfläche aufzurufen. Drücken Sie nun Bild öffnen, um das ausgewählte Bild für die Erkennung auszuwählen. Drücken Sie dann Bild anzeigen, um das ausgewählte Bild anzuzeigen.
Klicken Sie auf Erkennung starten, um das ausgewählte Bild zu erkennen. Drücken Sie abschließend auf Wählen Sie den sicheren Pfad und wählen Sie den entsprechenden Dateispeicherort, um die Bildergebnisse zu speichern. Die Entfernung des DCL-Modells aus dem Algorithmus führte zu einer Abnahme des F-Beta-Werts und einer Erhöhung des E-MAE-Wertes.
Dieser Algorithmus entfernt nur die DEDN-Struktur. Eine ähnliche Abnahme des F-Beta-Wertes und eine Erhöhung des E-MAE-Wertes wurden im Vergleich zum gesamten Modul beobachtet. Der DCL-Algorithmus beschrieb die Zielgrenze bei der Erkennung von Bildern in der SOD-Datenbank, hatte jedoch Schwierigkeiten, den Hintergrund effektiv zu filtern.
Der DEDN-Algorithmus stärkte jedoch die Zielgrenze, unterdrückte jedoch Hintergrundredundanzinformationen.