Modello di deep learning open source di Yahoo per la pornografia

Yahoo
Desideri mantenere i contenuti non sicuri per il lavoro fuori dalla schermata di lavoro? L’intelligenza artificiale potrebbe essere in grado di aiutarti a farlo. Venerdì, l'ingegnere ricercatore di Yahoo Jay Mahadeokar e il direttore senior della gestione del prodotto Gerry Pesavento hanno pubblicato un post sul blog annunciando il rilascio del "modello di deep learning" dell'azienda che consentirà agli sviluppatori di sperimentare un classificatore per il rilevamento NSFW, e fornirci feedback sui modi per migliorare il classificatore. In sostanza, Yahoo sta rendendo open source i suoi algoritmi per il rilevamento di contenuti pornografici immagini.

"Identificazione automatica che un'immagine non è adatta/sicura per il lavoro (NSFW), inclusa quella offensiva e per adulti immagini, è un problema importante che i ricercatori cercano di affrontare da decenni”, ha scritto il team di Yahoo Venerdì. “Con l’evoluzione della visione artificiale, il miglioramento dei dati di addestramento e gli algoritmi di deep learning, i computer sono ora in grado di classificare automaticamente il contenuto delle immagini NSFW con maggiore precisione”.

Video consigliati

Detto questo, al momento non esiste un modello o algoritmo open source per identificare le immagini NSFW, ha sottolineato Yahoo. In quanto tale, “nello spirito di collaborazione e con la speranza di portare avanti questo impegno”, l’azienda lo è colmando il divario, fornendo uno strumento di apprendimento automatico che si concentra esclusivamente sull’identificazione di materiale pornografico immagini. La ragione di questa specificità, ha spiegato Yahoo, è che “ciò che può essere discutibile in un contesto può essere adatto in un altro”. Ma per questi scopi il porno è decisamente inadatto.

Imparentato

  • DeepSqueak è un'intelligenza artificiale basata sull'apprendimento automatico. che rivela di cosa stanno parlando i topi

Il sistema di Yahoo utilizza il deep learning per assegnare a un'immagine un punteggio compreso tra 0 e 1 per determinare quanto sia realmente NSFW. “Gli sviluppatori possono utilizzare questo punteggio per filtrare le immagini al di sotto di una determinata soglia adeguata in base a ROC curva per casi d’uso specifici o utilizzare questo segnale per classificare le immagini nei risultati di ricerca”, ha affermato Yahoo. Ma tieni presente che non c’è alcuna garanzia di accuratezza qui – davvero, è qui che entri in gioco. "Questo modello è un modello di riferimento per scopi generali, che può essere utilizzato per il filtraggio preliminare delle immagini pornografiche", conclude il post sul blog. "Non forniamo garanzie di accuratezza dell'output, piuttosto, lo rendiamo disponibile agli sviluppatori per esplorarlo e migliorarlo come progetto open source."

Raccomandazioni degli editori

  • Apprendimento profondo dell'intelligenza artificiale può imitare gli effetti di distorsione degli iconici dei della chitarra
  • Cos'è l'apprendimento profondo?

Migliora il tuo stile di vitaDigital Trends aiuta i lettori a tenere d'occhio il frenetico mondo della tecnologia con tutte le ultime notizie, divertenti recensioni di prodotti, editoriali approfonditi e anteprime uniche nel loro genere.