Así nació su algoritmo de desnudez. ¿En cuanto al sitio web? Piense en ello menos como un truco de salón y más como una herramienta de marketing. Si el sexo vende, tal vez filtrarlo también lo haga.

"Pensamos que la aplicabilidad potencialmente sería mucho más amplia", dice Daniel. “Cualquiera que intente administrar una comunidad pero quiera filtrar contenido objetable o mantenerlo apto para niños podría beneficiarse de este mismo algoritmo. » Dada la naturaleza del contenido, Algorithmia no almacena ni visualiza sus imágenes; el sitio simplemente llama al algoritmo de detección de desnudez y devuelve un resultado.

Al hacerlo, las contribuciones a isitnude.com ayudan a perfeccionar su capacidad de detección. Sin embargo, este progreso será fragmentario; Los estándares de privacidad que impiden que Algorithmia vea sus fotos también significan que los resultados potencialmente útiles deben informarse a través de otros canales. “La gente nos enviaba correos electrónicos, tweets, diciéndonos que una foto realmente no funcionaba”, explica Daniel. “Lo usamos para iterar. »

También hará falta algo más que un simple ajuste para que el algoritmo se vuelva infalible, incluso ligeramente bronceado. Por ejemplo, todavía no puede reReunirse con partes individuales del cuerpo, lo que significa que una imagen de alguien que está completamente vestido, excepto las partes que deseas que estén más vestidas, probablemente aún pasaría por ella. Y debido a que se basa únicamente en carne, de lo contrario, las fotos inocentes de la playa podrían terminar siendo marcadas. ¿Un contratiempo aún mayor? Debido a que el algoritmo se basa en el reconocimiento del tono de piel, es impotente frente a imágenes en blanco y negro.

También está el problema más amplio de su alcance limitado, incluso cuando funciona perfectamente. Existe todo un universo de contenido basado en imágenes potencialmente ofensivo que no tiene nada que ver con la piel, dice Joshua Buxbaum, cofundador de WebPurificador, un servicio de moderación de contenidos. “La violencia”, da el ejemplo Buxbaum, “es complicada. Incluso obtenemos detalles lo más detallados posible. » violencia en un deporte que no es un deporte violento es violencia, pero si es boxeo, ¿quién? es un deporte violento, lo permitimos. Esto es sólo un comienzo; Según Buxbaum, una suite de moderación de imágenes verdaderamente integral debería potencialmente corregir todo, desde crímenes de odio hasta parafernalia de drogas y gestos groseros, dependiendo de las necesidades del cliente, y abordar las áreas grises dentro de cada una de estas categorías. La solución de Algorithmia sólo busca personas desnudas y, aun así, todavía tiene la difícil tarea de determinar si son lascivas o no. Buxbaum propone que el algoritmo más simple podría filtrar algo en busca de malas palabras, pero tendría dificultades para identificar discursos de odio o intimidación, lo que significa que un algoritmo de detección de desnudez podría encontrar carne, pero tendría dificultades para distinguir si se trata de pornografía de venganza u obras de arte.

Sin embargo, esto no hace que su algoritmo de detección de desnudez sea inútil; es simplemente un instrumento contundente en lugar de un mojigato misil guiado por láser. Daniel también espera que este tipo de problemas se resuelvan con el tiempo, especialmente si hay un interés comercial claro. “Continuaremos mejorándolo”, dice, “o si un usuario de nuestro sistema quiere entrar e intentar crear un algoritmo de detección de desnudez más sofisticado, también puede hacerlo. » Si uno de los socios de Algorithmia lograra descifrar un código mejor, se le pagaría según un modelo tomado prestado directamente de la App Store de Apple; recibe una tarifa por cada llamada al algoritmo, y Algorithmia se queda con el 30% de la suma.

Categorías: Whatsapp

0 comentario

Dejar un comentario

Ubicación del avatar

Su dirección de correo electrónico no será publicada. Los campos necesarios están marcados con *