proteccioninformanteai

Los expertos en IA piden ampliar la protección del informante

El 4 de junio se publicó una carta abierta de varios antiguos empleados de OpenAI. Estos expertos en IA piden ampliar la protección del informante o whistleblower, en inglés, para poder informar de las preocupaciones relacionadas con el riesgo sobre sus tecnologías al público y/o al regulador.

La inteligencia artificial genera grandes avances y a la vez grandes preocupaciones. La ética detrás de las multinacionales que apuestan por estas tecnologías es de dudosa credibilidad. Algunos trabajadores de uno de los líderes en el sector, OpenAI, muestran su preocupación y los graves riesgos a los que se enfrenta la sociedad en los próximos años si no se establecen medidas de control. Solicitan una ampliación de la protección del denunciante ya que las protecciones ordinarias actuales de los denunciantes son insuficientes porque se centran en la actividad ilegal, mientras que muchos de los riesgos que preocupan aún no están regulados. Recordamos que desde marzo de 2023, está en vigor en España la ley 2/2023 de protección del denunciante, que entre las medidas de protección , obliga a las organizaciones de 50 o más empleados a implantar un canal de comunicaciones internas.

Recordad que recientemente tuvimos un caso muy sonado de una denuncia interna en una gran organización como Facebook, alertando de los riesgos del uso de las redes sociales.

Os compartimos la carta abierta publicada, la hemos traducido al castellano utilizando inteligencia artificial, así que puede haber algún desliz.

Un derecho a advertir sobre la inteligencia artificial avanzada

„Somos empleados actuales y anteriores de empresas de IA fronterizas, y creemos en el potencial de la tecnología de IA para ofrecer beneficios sin precedentes a la humanidad.

También entendemos los graves riesgos que plantean estas tecnologías. Estos riesgos van desde el afianzamiento adicional de las desigualdades existentes, hasta la manipulación y la desinformación, hasta la pérdida del control de los sistemas autónomos de IA que potencialmente resultan en la extinción humana. Las propias empresas de IA han reconocido estos riesgos, así como los gobiernos de todo el mundo y otros expertos en IA.

Esperamos que estos riesgos se puedan mitigar adecuadamente con la orientación suficiente de la comunidad científica, los responsables políticos y el público. Sin embargo, las empresas de IA tienen fuertes incentivos financieros para evitar una supervisión efectiva, y no creemos que las estructuras a medida del gobierno corporativo sean suficientes para cambiar esto.

Las empresas de IA poseen información sustancial no pública sobre las capacidades y limitaciones de sus sistemas, la adecuación de sus medidas de protección y los niveles de riesgo de diferentes tipos de daños. Sin embargo, actualmente solo tienen obligaciones débiles de compartir parte de esta información con los gobiernos, y ninguna con la sociedad civil. No creemos que se pueda confiar en que todos ellos lo compartan voluntariamente.

Mientras no haya una supervisión gubernamental efectiva de estas corporaciones, los empleados actuales y anteriores se encuentran entre las pocas personas que pueden hacerlos responsables ante el público. Sin embargo, los amplios acuerdos de confidencialidad nos impiden expresar nuestras preocupaciones, excepto a las mismas empresas que pueden no estar abordando estos problemas. Las protecciones ordinarias de los denunciantes son insuficientes porque se centran en la actividad ilegal, mientras que muchos de los riesgos que nos preocupan aún no están regulados. Algunos de nosotros tememos razonablemente varias formas de represalias, dada la historia de tales casos en toda la industria. No somos los primeros en encontrarnos o hablar de estos temas.

Por lo tanto, pedimos a las empresas avanzadas de IA que se comprometan con estos principios:

  1. Que la empresa no firmará ni hará cumplir ningún acuerdo que prohíba la „desprecia“ o la crítica de la empresa por preocupaciones relacionadas con el riesgo, ni tomará represalias por las críticas relacionadas con el riesgo obstaculizando cualquier beneficio económico adquirido;
  2. Que la compañía facilitará un proceso anónimo verificable para que los empleados actuales y anteriores planteen preocupaciones relacionadas con el riesgo a la junta directiva de la empresa, a los reguladores y a una organización independiente adecuada con experiencia relevante;
  3. Que la compañía apoyará una cultura de crítica abierta y permitirá a sus empleados actuales y anteriores plantear preocupaciones relacionadas con el riesgo sobre sus tecnologías al público, a la junta directiva de la empresa, a los reguladores o a una organización independiente adecuada con experiencia relevante, siempre y cuando los secretos comerciales y otros intereses de propiedad intelectual estén adecuadamente protegidos;
  4. Que la compañía no tomará represalias contra los empleados actuales y anteriores que comparten públicamente información confidencial relacionada con el riesgo después de que otros procesos hayan fracasado. Aceptamos que cualquier esfuerzo por informar sobre las preocupaciones relacionadas con el riesgo debe evitar la publicación innecesaria de información confidencial. Por lo tanto, una vez que exista un proceso adecuado para plantear preocupaciones de forma anónima a la junta directiva de la empresa, a los reguladores y a una organización independiente adecuada con experiencia relevante, aceptamos que las preocupaciones deben plantearse inicialmente a través de dicho proceso. Sin embargo, mientras no exista un proceso de este tipo, los empleados actuales y anteriores deben conservar su libertad para informar al público de sus preocupaciones.“

Puedes consultar la carta original, así como el nombre de los expertos en IA que piden ampliar la protección del informante desde aquí.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.