Effiziente Identifikation von unangemessenen Bildern
NSFWJS ist eine JavaScript-Bibliothek, die entwickelt wurde, um potenziell unangemessene Bilder im Browser zu identifizieren, ohne dass diese an einen Server gesendet werden müssen. Sie nutzt TensorFlowJS, eine Open-Source-Maschinenlernen-Bibliothek, und erreicht eine Genauigkeit von 93%. Die Bibliothek erkennt spezifische Muster in Bildern und bietet eine effektive Lösung für die Bildüberprüfung direkt im Browser. Darüber hinaus beinhaltet NSFWJS eine Funktion zur Bildunschärfe, die Bilder, die als unangemessen identifiziert werden, automatisch verwischt.
NSFWJS ist kostenlos und kann unter der MIT-Lizenz modifiziert und verteilt werden. Die Bibliothek wird regelmäßig aktualisiert und verbessert, wobei neue Modelle häufig veröffentlicht werden. Zusätzlich steht eine mobile Demo zur Verfügung, die es Nutzern ermöglicht, verschiedene Bilder auf ihren mobilen Geräten zu testen. Die Bibliothek kann über GitHub heruntergeladen werden, und Nutzer sind eingeladen, falsche Positivmeldungen zu melden oder zur Weiterentwicklung beizutragen.