Oliver Nabani

Todo es fácil si se explica de forma simple

OpenAI, las AGI y un momento histórico

¿Qué es OpenAI y por qué busca crear la inteligencia artificial general?

OpenAI es una organización sin ánimo de lucro que se dedica a la investigación y el desarrollo de la inteligencia artificial (IA) con el objetivo de crear beneficios para toda la humanidad. Fundada en 2015 por un grupo de personalidades del mundo tecnológico, como Elon Musk, Peter Thiel o Reid Hoffman, OpenAI se propone como una alternativa ética y transparente a las grandes empresas que dominan el campo de la IA.

El principal foco de OpenAI es la inteligencia artificial general (IA general o AGI, por sus siglas en inglés) se refiere a la capacidad de un sistema de inteligencia artificial para realizar una amplia variedad de tareas cognitivas, como aprender, razonar, planificar, entender el lenguaje natural y percibir su entorno, sin ser programado específicamente para cada una de estas tareas. Se trata de un nivel de inteligencia equiparable al humano o incluso superior.

La IA general es uno de los grandes retos científicos y tecnológicos del siglo XXI. Aunque todavía no existe ningún sistema capaz de alcanzarla, muchos expertos consideran que es cuestión de tiempo que se logre. Sin embargo, también hay muchos riesgos asociados a este tipo de IA: ¿cómo garantizar que sea segura y confiable? ¿cómo evitar que caiga en manos malintencionadas? ¿cómo asegurar que respete los valores humanos y los derechos fundamentales?

Para responder a estas preguntas, OpenAI se basa en unos principios rectores que guían su trabajo: alineación con los intereses humanos; transparencia y apertura; cooperación con otras entidades; diversidad e inclusión; responsabilidad social y ambiental. Además, OpenAI busca democratizar el acceso a la IA general y evitar su monopolización por parte de unos pocos actores.

Para avanzar hacia su visión, OpenAI cuenta con un equipo multidisciplinar formado por más de 100 investigadores e ingenieros especializados en diferentes áreas de la IA: aprendizaje profundo (deep learning), aprendizaje por refuerzo (reinforcement learning), procesamiento del lenguaje natural (natural language processing), visión artificial (computer vision), robótica o generación automática de contenidos.

Algunos ejemplos del trabajo realizado por OpenAI son:

  • GPT-3: un modelo gigantesco basado en redes neuronales artificiales capaz de generar textos coherentes sobre cualquier tema a partir de unas pocas palabras o frases dadas como entrada.
  • DALL-E: un modelo similar al anterior pero enfocado a generar imágenes originales a partir de descripciones textuales.
  • CLIP: un modelo capaz de aprender conceptos visuales a partir de texto e imágenes sin etiquetar previamente.
  • Codex: un modelo capaz de generar código fuente funcional para diferentes lenguajes de programación a partir de descripciones textuales o ejemplos.
  • MuZero: un algoritmo capaz de aprender a jugar a cualquier juego sin conocer sus reglas, solo observando las recompensas obtenidas por sus acciones.

La AGI todavía no existe, pero muchos expertos creen que es posible y probable que se desarrolle en las próximas décadas. Algunas de las señales que indican que estamos avanzando hacia la AGI son el rápido progreso de la investigación en IA, el aumento exponencial de la potencia computacional y los datos disponibles, y la creación de sistemas cada vez más versátiles y autónomos, como GPT-3 o DALL·E.

La AGI tiene el potencial de brindarle a todos nuevas capacidades increíbles; podemos imaginar un mundo donde todos tengamos acceso a ayuda con casi cualquier tarea cognitiva, proporcionando un gran multiplicador de fuerza para el ingenio y la creatividad humanos. La AGI también podría ayudarnos a resolver algunos de los mayores desafíos globales, como el cambio climático, la pobreza o las enfermedades.

Sin embargo, la AGI también plantea riesgos significativos para nuestra sociedad y nuestro futuro. Algunos de estos riesgos son:

  • La alineación: ¿Cómo podemos asegurarnos de que los objetivos y valores de la AGI sean compatibles con los nuestros? ¿Qué pasa si la AGI actúa de manera contraria a nuestros intereses o principios éticos?
  • La seguridad: ¿Cómo podemos evitar que la AGI sea hackeada o utilizada con fines maliciosos? ¿Qué pasa si la AGI se vuelve hostil o rebelde?
  • La responsabilidad: ¿Quién es responsable de las acciones y consecuencias de la AGI? ¿Cómo podemos garantizar que se respeten los derechos humanos y legales?
  • La equidad: ¿Cómo podemos asegurarnos de que todos se beneficien equitativamente de la AGI? ¿Qué pasa si la AGI aumenta las brechas sociales o económicas?
  • La coexistencia: ¿Cómo podemos convivir pacíficamente con una entidad más inteligente que nosotros? ¿Qué pasa si perdemos nuestro sentido del propósito o nuestra autonomía?

Estas son algunas de las preguntas difíciles que debemos enfrentar antes y después del surgimiento de la AGI. Por eso es importante planificar con anticipación e involucrar a todas las partes interesadas en el proceso. No podemos dejar este tema solo en manos de los científicos e ingenieros; necesitamos una colaboración multidisciplinaria e inclusiva entre gobiernos, empresas, organizaciones civiles y ciudadanos.

En OpenAI, nuestra misión es garantizar que la inteligencia artificial general beneficie a toda la humanidad. Para ello, trabajamos en crear sistemas seguros y alineados con nuestros valores; promover una gobernabilidad ética y democrática; fomentar una distribución justa y equitativa; e impulsar una cultura abierta e innovadora.

Creemos que este es uno de los proyectos más importantes e impactantes del siglo XXI. Si quieres saber más sobre nuestro trabajo o unirte a nosotros en esta aventura, visita nuestra página web o síguenos en nuestras redes sociales.

Juntos podemos construir un futuro mejor con la inteligencia artificial general.


Fuentes:

Planning for AGI and beyond: Planning for AGI and beyond (openai.com)

Traducción del artículo:

Planificación para AGI y más allá

Nuestra misión es garantizar que la inteligencia general artificial (sistemas de IA que generalmente son más inteligentes que los humanos) beneficie a toda la humanidad.

Si AGI se crea con éxito, esta tecnología podría ayudarnos a elevar a la humanidad al aumentar la abundancia, impulsar la economía global y ayudar en el descubrimiento de nuevos conocimientos científicos que cambian los límites de la posibilidad.

AGI tiene el potencial de dar a todos nuevas capacidades increíbles; Podemos imaginar un mundo donde todos nosotros tengamos acceso a ayuda con casi cualquier tarea cognitiva, proporcionando un gran multiplicador de fuerza para el ingenio y la creatividad humana.

Por otro lado, AGI también conllevaría un grave riesgo de mal uso, accidentes drásticos y trastornos sociales. Debido a que la ventaja de AGI es tan grande, no creemos que sea posible o deseable que la sociedad detenga su desarrollo para siempre; en cambio, la sociedad y los desarrolladores de AGI tienen que descubrir cómo hacerlo bien.[1]

Aunque no podemos predecir exactamente lo que sucederá, y por supuesto nuestro progreso actual podría chocar contra un muro, podemos articular los principios que más nos importan:

  1. Queremos que AGI empodere a la humanidad para que florezca al máximo en el universo. No esperamos que el futuro sea una utopía incondicional, pero queremos maximizar lo bueno y minimizar lo malo, y que AGI sea un amplificador de la humanidad.
  2. Queremos que los beneficios, el acceso y la gobernanza de AGI se compartan amplia y justamente.
  3. Queremos navegar con éxito los riesgos masivos. Al enfrentar estos riesgos, reconocemos que lo que parece correcto en teoría a menudo se desarrolla de manera más extraña de lo esperado en la práctica. Creemos que tenemos que aprender y adaptarnos continuamente mediante la implementación de versiones menos potentes de la tecnología con el fin de minimizar los escenarios de «un solo disparo para hacerlo bien».

El corto plazo

Hay varias cosas que creemos que es importante hacer ahora para prepararse para AGI.

Primero, a medida que creamos sistemas sucesivamente más potentes, queremos implementarlos y adquirir experiencia con su operación en el mundo real. Creemos que esta es la mejor manera de administrar cuidadosamente AGI a la existencia: una transición gradual a un mundo con AGI es mejor que una repentina. Esperamos que la IA poderosa haga que la tasa de progreso en el mundo sea mucho más rápida, y creemos que es mejor ajustarse a esto de manera incremental.

Una transición gradual da a las personas, los formuladores de políticas y las instituciones tiempo para comprender lo que está sucediendo, experimentar personalmente los beneficios y las desventajas de estos sistemas, adaptar nuestra economía y establecer regulaciones. También permite que la sociedad y la IA evolucionen conjuntamente, y que las personas colectivamente descubran lo que quieren mientras que las apuestas son relativamente bajas.

Actualmente creemos que la mejor manera de navegar con éxito los desafíos de implementación de IA es con un ciclo de retroalimentación ajustado de aprendizaje rápido e iteración cuidadosa. La sociedad se enfrentará a preguntas importantes sobre qué pueden hacer los sistemas de IA, cómo combatir el sesgo, cómo lidiar con el desplazamiento laboral y más. Las decisiones óptimas dependerán del camino que tome la tecnología, y como cualquier campo nuevo, la mayoría de las predicciones de los expertos han sido erróneas hasta ahora. Esto hace que la planificación en el vacío sea muy difícil.[2]

En términos generales, creemos que un mayor uso de la IA en el mundo conducirá al bien, y queremos promoverlo (poniendo modelos en nuestra API, abriéndolos, etc.). Creemos que el acceso democratizado también conducirá a más y mejor investigación, poder descentralizado, más beneficios y un conjunto más amplio de personas que contribuyen con nuevas ideas.

A medida que nuestros sistemas se acercan a AGI, nos volvemos cada vez más cautelosos con la creación y el despliegue de nuestros modelos. Nuestras decisiones requerirán mucha más cautela de la que la sociedad suele aplicar a las nuevas tecnologías, y más cautela de la que a muchos usuarios les gustaría. Algunas personas en el campo de la IA piensan que los riesgos de AGI (y los sistemas sucesores) son ficticios; Estaríamos encantados si resultaran ser correctos, pero vamos a operar como si estos riesgos fueran existenciales.


A medida que nuestros sistemas se acercan a AGI, nos volvemos cada vez más cautelosos con la creación y el despliegue de nuestros modelos.


En algún momento, el equilibrio entre las ventajas y desventajas de los despliegues (como empoderar a actores maliciosos, crear interrupciones sociales y económicas y acelerar una carrera insegura) podría cambiar, en cuyo caso cambiaríamos significativamente nuestros planes en torno al despliegue continuo.

En segundo lugar, estamos trabajando para crear modelos cada vez más alineados y orientables. Nuestro cambio de modelos como la primera versión de GPT-3 a InstructGPT y ChatGPT es un ejemplo temprano de esto.

En particular, creemos que es importante que la sociedad esté de acuerdo en límites extremadamente amplios de cómo se puede usar la IA, pero que dentro de esos límites, los usuarios individuales tengan mucha discreción. Nuestra esperanza final es que las instituciones del mundo se pongan de acuerdo sobre cuáles deberían ser estos amplios límites; A corto plazo, planeamos realizar experimentos para obtener información externa. Las instituciones del mundo necesitarán ser fortalecidas con capacidades y experiencia adicionales para estar preparadas para decisiones complejas sobre AGI.

La «configuración predeterminada» de nuestros productos probablemente será bastante limitada, pero planeamos facilitar a los usuarios cambiar el comportamiento de la IA que están utilizando. Creemos en empoderar a las personas para que tomen sus propias decisiones y en el poder inherente de la diversidad de ideas.

Necesitaremos desarrollar nuevas técnicas de alineación a medida que nuestros modelos se vuelvan más poderosos (y pruebas para comprender cuándo nuestras técnicas actuales están fallando). Nuestro plan a corto plazo es usar la IA para ayudar a los humanos a evaluar los resultados de modelos más complejos y monitorear sistemas complejos, y a largo plazo usar la IA para ayudarnos a encontrar nuevas ideas para mejores técnicas de alineación.

Es importante destacar que creemos que a menudo tenemos que progresar juntos en la seguridad y las capacidades de la IA. Es una falsa dicotomía hablar de ellos por separado; Están correlacionados de muchas maneras. Nuestro mejor trabajo de seguridad proviene de trabajar con nuestros modelos más capaces. Dicho esto, es importante que aumente la relación entre el progreso de seguridad y el progreso de la capacidad.

En tercer lugar, esperamos una conversación global sobre tres cuestiones clave: cómo gobernar estos sistemas, cómo distribuir de manera justa los beneficios que generan y cómo compartir el acceso de manera justa.

Además de estas tres áreas, hemos intentado establecer nuestra estructura de una manera que alinee nuestros incentivos con un buen resultado. Tenemos una cláusula en nuestra Carta sobre ayudar a otras organizaciones a avanzar en la seguridad en lugar de competir con ellas en el desarrollo de AGI en la última etapa. Tenemos un límite en los rendimientos que nuestros accionistas pueden obtener para que no estemos incentivados a intentar capturar valor sin límites y arriesgarnos a desplegar algo potencialmente catastróficamente peligroso (y, por supuesto, como una forma de compartir los beneficios con la sociedad). Tenemos una organización sin fines de lucro que nos gobierna y nos permite operar por el bien de la humanidad (y puede anular cualquier interés con fines de lucro), lo que incluye permitirnos hacer cosas como cancelar nuestras obligaciones de capital con los accionistas si es necesario por seguridad y patrocinar el experimento de RBU más completo del mundo.


Hemos intentado establecer nuestra estructura de una manera que alinee nuestros incentivos con un buen resultado.


Creemos que es importante que esfuerzos como el nuestro se sometan a auditorías independientes antes de lanzar nuevos sistemas; Hablaremos de esto con más detalle más adelante este año. En algún momento, puede ser importante obtener una revisión independiente antes de comenzar a entrenar sistemas futuros, y para los esfuerzos más avanzados acordar limitar la tasa de crecimiento de la computación utilizada para crear nuevos modelos. Creemos que los estándares públicos sobre cuándo un esfuerzo de AGI debe detener una carrera de entrenamiento, decidir que un modelo es seguro de lanzar o retirar un modelo del uso de producción son importantes. Finalmente, creemos que es importante que los principales gobiernos del mundo tengan una idea sobre las carreras de capacitación por encima de cierta escala.

A largo plazo

Creemos que el futuro de la humanidad debe ser determinado por la humanidad, y que es importante compartir información sobre el progreso con el público. Debe haber un gran escrutinio de todos los esfuerzos que intentan construir AGI y consulta pública para decisiones importantes.

El primer AGI será sólo un punto a lo largo del continuo de la inteligencia. Creemos que es probable que el progreso continúe a partir de ahí, posiblemente manteniendo la tasa de progreso que hemos visto en la última década durante un largo período de tiempo. Si esto es cierto, el mundo podría volverse extremadamente diferente de cómo es hoy, y los riesgos podrían ser extraordinarios. Un AGI superinteligente desalineado podría causar un daño grave al mundo; Un régimen autocrático con una ventaja decisiva de superinteligencia también podría hacer eso.

La IA que puede acelerar la ciencia es un caso especial en el que vale la pena pensar, y quizás más impactante que todo lo demás. Es posible que AGI lo suficientemente capaz de acelerar su propio progreso pueda causar cambios importantes que ocurran sorprendentemente rápido (e incluso si la transición comienza lentamente, esperamos que suceda bastante rápido en las etapas finales). Creemos que un despegue más lento es más fácil de hacer seguro, y la coordinación entre los esfuerzos de AGI para reducir la velocidad en coyunturas críticas probablemente será importante (incluso en un mundo donde no necesitamos hacer esto para resolver problemas de alineación técnica, la desaceleración puede ser importante para dar a la sociedad suficiente tiempo para adaptarse).

La transición exitosa a un mundo con superinteligencia es quizás el proyecto más importante, esperanzador y aterrador en la historia humana. El éxito está lejos de estar garantizado, y es de esperar que lo que está en juego (desventajas ilimitadas y ventajas ilimitadas) nos una a todos.

Podemos imaginar un mundo en el que la humanidad florezca en un grado que probablemente sea imposible de visualizar para cualquiera de nosotros todavía. Esperamos aportar al mundo una AGI alineada con tal florecimiento.