NSFWJS: la libreria JavaScript che identifica immagini potenzialmente inappropriate
NSFWJS è una libreria JavaScript progettata per aiutare a identificare immagini potenzialmente inappropriate sul browser del cliente, senza la necessità di inviare l'immagine ad un server.
La libreria è alimentata da TensorFlowJS, una libreria di apprendimento automatico open-source per JavaScript. La libreria è addestrata per riconoscere determinati pattern nelle immagini, con un'attuale precisione del 93%.
La libreria include anche CameraBlur Protection, una funzione che sfoca qualsiasi immagine che viene identificata come potenzialmente inappropriata. La libreria viene costantemente migliorata e aggiornata, con nuovi modelli che vengono rilasciati frequentemente.
NSFWJS è gratuita e può essere modificata e distribuita sotto la licenza MIT. La libreria include anche una demo per dispositivi mobili, che consente agli utenti di testare diverse immagini sui propri dispositivi mobili.
Infine, la libreria è disponibile per il download tramite GitHub, e gli utenti sono incoraggiati a segnalare eventuali falsi positivi o a contribuire allo sviluppo della libreria. NSFWJS è una soluzione utile per coloro che vogliono proteggere i loro utenti da immagini potenzialmente inappropriate senza inviare i dati a terzi e mantenere la privacy dei propri utenti.
Ti aspettiamo sulla nostra pagina FACEBOOK !!!
Nessun commento:
Posta un commento