Ex miembros de la junta directiva de OpenAI dicen que no se puede confiar en que la empresa se gobierne a sí misma

Sam Altman, director ejecutivo de OpenAI, ha enfrentado un escrutinio contra su empresa desde que fue reinstalado como director ejecutivo en noviembre.
Jason Redmond/AFP vía Getty Images

  • Ex miembros de la junta directiva de OpenAI escribieron en The Economist que los gobiernos deberían regular las empresas de IA.
  • Helen Toner y Tasha McAuley fueron las únicas mujeres en la junta directiva de la empresa y dejaron la empresa en noviembre.
  • Ambos apoyaron la destitución del director ejecutivo de OpenAI, Sam Altman, quien, según dicen, creó un ambiente de trabajo “tóxico”.

Dos ex miembros de la junta directiva de OpenAI dicen que A.I No se puede confiar en que se gobiernen a sí mismos y es necesaria una regulación de terceros para exigirles responsabilidad.

Helen Toner y Tasha McAuley eran miembros de la junta directiva de OpenAI antes de dimitir en noviembre en medio de una campaña caótica para derrocar al cofundador de OpenAI, Sam Altman. Altman fue rápidamente reinstalado como director ejecutivo días después de su despido y regresó a la junta cinco meses después.

Los dos ex miembros de la junta escribieron en un artículo de opinión para The Economist que mantienen su decisión de despedir a Altman, citando declaraciones de altos líderes que dijeron que el cofundador creó una “cultura tóxica de mentira” y se involucró en un “comportamiento”. [that] «Se puede describir como abuso psicológico».

Desde que Altman regresó a la junta directiva en marzo, OpenAI ha sido cuestionada sobre su compromiso con la seguridad y criticada por usar una voz de IA que sonaba inquietantemente similar a la actriz Scarlett Johansson en Chat GPT-4o.

READ  Helen Wendy Nyaputu: Una mujer keniana se ahoga mientras transmitía en vivo en Facebook

Con Altman nuevamente en el cargo, Toner y McCauley escriben que no se puede confiar en que OpenAI se haga responsable.

«También creemos que los acontecimientos desde su regreso a la empresa, incluido su regreso a la junta directiva y la salida de talentos senior centrados en la seguridad, no auguran nada bueno para el experimento de autonomía de OpenAI», escribieron.

Para que OpenAI tenga éxito en su misión declarada de beneficiar a «toda la humanidad», Toner y McCauley sostienen que los gobiernos deben intervenir y crear «marcos regulatorios eficaces ahora».

Los ex miembros de la junta escribieron que alguna vez creyeron que OpenAI podía gobernarse a sí mismo, pero «según nuestra experiencia, creemos que el autogobierno no puede resistir de manera confiable la presión de los incentivos a las ganancias».

OpenAI, Toner y McCauley no respondieron de inmediato a una solicitud de comentarios de BI.

Los formuladores de políticas deben “actuar independientemente” de las empresas de IA

Toner y McCauley matizaron sus llamados a la regulación gubernamental reconociendo que leyes mal diseñadas podrían sofocar “la competencia y la innovación” al sobrecargar a las pequeñas empresas.

«Es importante que los formuladores de políticas actúen independientemente de las principales empresas de IA al desarrollar nuevas reglas», escribieron. «Deben estar atentos a las lagunas jurídicas, los ‘fosos’ regulatorios que protegen a los primeros inversores de la competencia y la posibilidad de una absorción regulatoria».

En abril, el Departamento de Seguridad Nacional anunció la creación del Consejo de Seguridad de la IA, que hará recomendaciones sobre “el desarrollo y la implementación de la IA de forma segura” en toda la infraestructura crítica de los Estados Unidos.

READ  Chile vs Argentina: CONMEBOL Copa América - BBC Sport

Los 22 miembros de la junta incluyen a Altman y directores ejecutivos de importantes empresas de tecnología, incluido el director ejecutivo de Nvidia, Jensen Huang, y el director ejecutivo de Alphabet, Sundar Pichai.

Aunque el Consejo de Seguridad también incluye representantes de organizaciones tecnológicas sin fines de lucro, los líderes de empresas con fines de lucro están sobrerrepresentados.

Los especialistas en ética de la IA que hablaron con Ars Technica expresaron su preocupación de que la enorme influencia de las empresas con fines de lucro pueda conducir a políticas que favorezcan a la industria por encima de la seguridad humana.

«Si todos podemos estar de acuerdo en que nos preocupamos por mantener a las personas seguras en términos de cómo usamos la IA, entonces creo que podemos estar de acuerdo en que es importante tener personas en la mesa que se especialicen en mantener a las personas enfocadas en la tecnología», dijo Margaret Mitchell. , un experto en la materia. Dijo a Ars Technica el experto en ética de IA de Hugging Face.

Un portavoz del Departamento de Seguridad Nacional no respondió a una solicitud de comentarios.

Axel Springer, la empresa matriz de Business Insider, tiene un acuerdo global para permitir que OpenAI entrene sus modelos en sus informes de marca de medios.

Estaremos encantados de escuchar lo que piensas

Deje una respuesta

ELCORREODEBEJAR.COM ES PARTICIPANTE EN EL PROGRAMA DE ASOCIADOS DE AMAZON SERVICES LLC, UN PROGRAMA DE PUBLICIDAD DE AFILIADOS DISEÑADO PARA PROPORCIONAR UN MEDIO PARA QUE LOS SITIOS GANAN TARIFAS DE PUBLICIDAD POR PUBLICIDAD Y ENLACE A AMAZON.COM. AMAZON, EL LOGOTIPO DE AMAZON, AMAZONSUPPLY Y EL LOGOTIPO DE AMAZONSUPPLY SON MARCAS COMERCIALES DE AMAZON.COM, INC. O SUS AFILIADAS. COMO ASOCIADO DE AMAZON, GANAMOS COMISIONES DE AFILIADOS DE COMPRAS QUE CALIFICAN. ¡GRACIAS, AMAZON POR AYUDARNOS A PAGAR LOS GASTOS DE NUESTRO SITIO WEB! TODAS LAS IMÁGENES DE LOS PRODUCTOS PERTENECEN A AMAZON.COM Y SUS VENDEDORES.
El Correo de Béjar