top of page

Noticias de actualidad

Público·33 miembros

OpenAI es ahora todo lo que prometió no ser: corporativa, de código cerrado y con ánimo de lucro


ree


OpenAI es hoy irreconocible, con acuerdos multimillonarios y asociaciones corporativas. ¿Intentará adueñarse de su brillante futuro de IA?


OpenAI se encuentra en el centro de una carrera armamentística de chatbot, con el lanzamiento público de ChatGPT y una asociación multimillonaria con Microsoft que ha impulsado a Google y Amazon a apresurarse a implementar la IA en sus productos. OpenAI también se ha asociado con Bain para llevar el aprendizaje automático a las operaciones de Coca-Cola, con planes de ampliarlo a otros socios corporativos.

No hay duda de que la IA generativa de OpenAI es ahora un gran negocio. Pero no siempre estuvo previsto que fuera así.


El CEO de OpenAI, Sam Altman, publicó el viernes pasado un post en su blog titulado "Planificando la AGI y más allá". En este post, declaraba que la Inteligencia Artificial General (AGI) de su empresa -una inteligencia de máquina de nivel humano que no está cerca de existir y que muchos dudan que llegue a existir- beneficiará a toda la humanidad y "tiene el potencial de dar a todo el mundo nuevas capacidades increíbles." Altman utiliza un lenguaje amplio e idealista para argumentar que el desarrollo de la IA no debería detenerse nunca y que "el futuro de la humanidad debería estar determinado por la humanidad", refiriéndose a su propia empresa.


Esta entrada en el blog y las recientes acciones de OpenAI -todas ellas en el punto álgido del ciclo publicitario ChatGPT- nos recuerdan lo mucho que han cambiado el tono y la misión de OpenAI desde su fundación, cuando era exclusivamente una organización sin ánimo de lucro. Aunque la empresa siempre ha mirado hacia un futuro en el que exista la AGI, se fundó sobre compromisos que incluían no buscar beneficios e incluso compartir libremente el código que desarrolla, que hoy en día no se ven por ninguna parte.


ree


OpenAI fue fundada en 2015 como una organización de investigación sin ánimo de lucro por Altman, Elon Musk, Peter Thiel y el cofundador de LinkedIn Reid Hoffman, entre otros líderes tecnológicos. En su declaración fundacional, la empresa declaró su compromiso con la investigación "para hacer avanzar la inteligencia digital de la manera que tenga más probabilidades de beneficiar a la humanidad en su conjunto, sin limitaciones por la necesidad de generar un rendimiento financiero." El blog afirmaba que "puesto que nuestra investigación está libre de obligaciones financieras, podemos centrarnos mejor en un impacto humano positivo", y que se animaría a todos los investigadores a compartir "artículos, entradas de blog o código, y nuestras patentes (si las hay) se compartirán con el mundo".


Ahora, ocho años después, nos enfrentamos a una empresa que ni es transparente ni está impulsada por el impacto humano positivo, sino que, como han argumentado muchos críticos, incluido el cofundador Musk, está impulsada por la velocidad y el beneficio. Y esta empresa está dando rienda suelta a una tecnología que, aunque defectuosa, todavía está preparada para aumentar algunos elementos de la automatización del lugar de trabajo a expensas de los empleados humanos. Google, por ejemplo, ha destacado el aumento de la eficiencia de la IA que autocompleta código, mientras despide a miles de trabajadores.


Cuando OpenAI comenzó su andadura, se planteó como una investigación básica sobre IA de forma abierta y con fines indeterminados. El cofundador Greg Bockman declaró a The New Yorker: "Nuestro objetivo ahora mismo... es hacer lo mejor que se pueda hacer. Es un poco vago". Esto dio lugar a un cambio de dirección en 2018, cuando la empresa buscó en los recursos de capital alguna orientación. "Nuestro principal deber fiduciario es con la humanidad. Prevemos que necesitaremos reunir recursos sustanciales para cumplir nuestra misión", escribió la empresa en unos estatutos actualizados en 2018.


En marzo de 2019, OpenAI se deshizo de su condición de organización sin ánimo de lucro y creó un sector de "beneficios limitados", en el que la empresa ya podía recibir inversiones y proporcionaría a los inversores unos beneficios limitados a 100 veces su inversión. La decisión de la empresa fue probablemente el resultado de su deseo de competir con rivales de Big Tech como Google y acabó recibiendo poco después una inversión de 1.000 millones de dólares de Microsoft. En la entrada del blog que anunciaba la formación de una empresa con ánimo de lucro, OpenAI seguía utilizando el mismo lenguaje que vemos hoy, declarando que su misión era "garantizar que la inteligencia artificial general (AGI) beneficie a toda la humanidad". Como escribió Motherboard cuando se anunció por primera vez la noticia, es increíblemente difícil creer que los capitalistas de riesgo puedan salvar a la humanidad cuando su principal objetivo es el beneficio.


La compañía se enfrentó a reacciones violentas durante su anuncio y posterior lanzamiento de su modelo de lenguaje GPT-2 en 2019. Al principio, la compañía dijo que no liberaría el código fuente del modelo de entrenamiento debido a "preocupaciones sobre aplicaciones maliciosas de la tecnología." Si bien esto reflejaba en parte el compromiso de la compañía con el desarrollo de IA beneficiosa, tampoco era muy "abierto". Los críticos se preguntaban por qué la empresa anunciaba una herramienta para luego retenerla, considerándolo un truco publicitario. Tres meses después, la empresa publicó el modelo en la plataforma de codificación de código abierto GitHub, afirmando que esta acción era "un fundamento clave de la publicación responsable en IA, particularmente en el contexto de potentes modelos generativos."


Según la reportera de investigación Karen Hao, que pasó tres días en la empresa en 2020, la cultura interna de OpenAI comenzó a reflejarse menos en el cuidadoso proceso de desarrollo de IA impulsado por la investigación y más en adelantarse, lo que llevó a acusaciones de alimentar el "ciclo de bombo de IA." Ahora se ordenaba a los empleados que guardaran silencio sobre su trabajo y encarnaran los nuevos estatutos de la empresa.

"Hay un desajuste entre lo que la empresa defiende públicamente y cómo funciona a puerta cerrada. Con el tiempo, ha permitido que la feroz competitividad y la creciente presión por conseguir cada vez más financiación erosionen sus ideales fundacionales de transparencia, apertura y colaboración", escribió Hao.


ree


Para OpenAI, sin embargo, el lanzamiento de GPT-2 fue un éxito y un peldaño hacia donde se encuentra ahora la empresa. Miles Brundage, actual Director de Investigación de Políticas, afirmó durante una reunión en la que se habló de GPT-2: "Creo que eso forma parte del éxito". "El titular de esta sección debería ser: Hicimos algo ambicioso, ahora algunas personas lo están replicando, y aquí hay algunas razones por las que fue beneficioso".

Desde entonces, OpenAI parece haber mantenido la parte del bombo de la fórmula de lanzamiento de GPT-2, pero ha suprimido la apertura. GPT-3 se lanzó en 2020 y rápidamente se concedió una licencia "exclusiva" a Microsoft. El código fuente de GPT-3 aún no se ha publicado, incluso cuando la empresa ya mira hacia GPT-4. El modelo sólo es accesible al público a través de ChatGPT con una API, y OpenAI lanzó un nivel de pago para garantizar el acceso al modelo.


OpenAI ha actuado así por varias razones. La primera es el dinero. La empresa declaró en su blog de anuncio de la API: "comercializar la tecnología nos ayuda a pagar nuestros esfuerzos continuos de investigación, seguridad y política de la IA". La segunda razón es una predisposición declarada a ayudar a las grandes empresas. Es "difícil que nadie, salvo las grandes empresas, se beneficie de la tecnología subyacente", declaró OpenAI. Por último, la empresa afirma que es más seguro publicar a través de una API en lugar de hacerlo como código abierto, porque la empresa puede responder a los casos de uso indebido.



La publicación de Altman en el blog de AGI el viernes continúa la pauta de OpenAI de adoptar un tono alegre, incluso cuando se aleja de sus principios fundacionales. Muchos investigadores criticaron la falta de sentido crítico y de sustancia de la entrada del blog, como la ausencia de una definición concreta de AGI.

"No paráis de decirnos que la AGI está a la vuelta de la esquina, pero ni siquiera podéis tener una sola definición coherente de ella en vuestra maldita página web", tuiteó Timnit Gebru, informático que fue despedido de Google por publicar un artículo pionero sobre los riesgos de los grandes modelos lingüísticos, que incluye sus peligrosos sesgos y el potencial de engañar a la gente con ellos.


Emily M. Bender, profesora de lingüística en la Universidad de Washington y coautora de ese trabajo, tuiteó: "No quieren abordar los problemas reales del mundo real (lo que exigiría ceder poder). Quieren creerse dioses que no sólo pueden crear una 'superinteligencia', sino que tienen la beneficencia de hacerlo de forma 'alineada' con la humanidad".


La entrada en el blog llega en un momento en que la gente está cada vez más desilusionada con el progreso de chatbots como ChatGPT; incluso Altman ha advertido de que los modelos actuales no sirven para hacer nada importante. Aún no está claro si algún día existirá una inteligencia artificial a nivel humano, pero ¿y si OpenAI consigue desarrollarla? Merece la pena plantearse algunas preguntas: ¿Se compartirá esta IA de forma responsable, se desarrollará abiertamente y sin ánimo de lucro, como preveía la empresa en un principio? ¿O se lanzará precipitadamente, con numerosos e inquietantes defectos y a cambio de un gran beneficio que beneficiará principalmente a OpenAI? ¿Mantendrá OpenAI su futuro de ciencia ficción en código cerrado?


El chatbot Bing de Microsoft, basado en OpenAI, se ha descarrilado, mintiendo y reprendiendo a los usuarios y difundiendo información errónea. OpenAI tampoco puede detectar de forma fiable su propio texto generado por el chatbot, a pesar de la creciente preocupación de los educadores por los estudiantes que utilizan la aplicación para hacer trampas. La gente ha estado vulnerando fácilmente el modelo de lenguaje para ignorar las barreras que OpenAI ha establecido en torno a él, y el bot se rompe cuando se le introducen palabras y frases aleatorias. Nadie puede decir exactamente por qué, porque OpenAI no ha compartido el código del modelo subyacente y, hasta cierto punto, es poco probable que la propia OpenAI entienda completamente cómo funciona.


Teniendo todo esto en cuenta, todos deberíamos considerar detenidamente si OpenAI merece la confianza que pide al público.




Fuente: VICE






107 vistas

© 2016-2026   IE Preparadores | Aviso legal - Protección de datos

bottom of page