domingo, 17 de febrero de 2019

Los investigadores, asustados por su propio trabajo, reprimen las fallas "profundas para el texto" AI

This is fine.

AgrandarEsto esta bien.

OpenAI, una compañía de investigación sin fines de lucro que investiga "el camino hacia la inteligencia artificial segura", ha desarrollado un sistema de aprendizaje automático denominado Generative Pre-training Transformer-2 (GPT-2), capaz de generar texto basado en breves instrucciones de escritura. El resultado se acerca tanto a la imitación de la escritura humana que potencialmente podría usarse para el contenido de "deepfake". Basado en 40 gigabytes de texto recuperado de fuentes en Internet (incluidos \ "todos los enlaces salientes de Reddit, una plataforma de redes sociales, que recibió al menos 3 karma \"), GPT-2 genera historias de "noticias" plausibles y otro texto que coincida con el estilo y el contenido de un mensaje breve de texto.

El rendimiento del sistema fue tan desconcertante, ahora elLos investigadores solo están lanzando una versión reducida de GPT-2.Basado en un corpus de texto mucho más pequeño. En una publicación del blog sobre el proyecto y esta decisión, los investigadores Alec Radford, Jeffrey Wu, Rewon Child, David Luan, Dario Amodei e Ilya Sutskever escribieron:

Debido a las preocupaciones sobre el uso de modelos de lenguaje grandes para generar lenguaje en gran escala engañoso, parcial o abusivo, solo estamos lanzando unVersión mucho más pequeña de GPT-2 junto con código de muestreo. No estamos lanzando el conjunto de datos, el código de entrenamiento o los pesos del modelo GPT-2. Hace casi un año escribimos en elCarta de OpenAI: "Esperamos que las preocupaciones de seguridad y protección reduzcan nuestra publicación tradicional en el futuro, al tiempo que aumenten la importancia de compartir la investigación de seguridad, políticas y estándares", y consideramos que este trabajo actual representa potencialmente el comienzo temprano de tales preocupaciones, lo que Esperamos que crezca con el tiempo. Esta decisión, al igual que nuestra discusión al respecto, es un experimento: si bien no estamos seguros de que sea la decisión correcta hoy, creemos que la comunidad de AI eventualmente deberá abordar el tema de las normas de publicación de manera reflexiva y segura. Áreas de investigación.

OpenAI es financiado por contribuciones de un grupo de ejecutivos de tecnología e inversionistas conectados a lo que algunos han denominado PayPal "mafia": Elon Musk, Peter Thiel, Jessica Livingston y Sam Altman de YCombinator, ex Director de Operaciones de PayPal y LinkedIn. el fundador, Reid Hoffman, y el ex director de tecnología de Stripe, Greg Brockman. Brockman ahora sirve como CTO de OpenAI. Musk ha advertido repetidamente sobre los peligros existenciales potenciales que plantea la IA, y OpenAI se enfoca en tratar de configurar el futuro de la tecnología de inteligencia artificial, idealmente alejándola de aplicaciones potencialmente dañinas.

Leer 6 párrafos restantesComentarios

No hay comentarios:

Publicar un comentario