martes, 14 de marzo de 2023

Microsoft ha despedido a su equipo de ética de la inteligencia artificial. Es una mala señal

Microsoft ha despedido a su equipo de ética de la inteligencia artificial. Es una mala señal

Como indican en Platformer, Microsoft ha decidido despedir al equipo de "ética y sociedad" de su división de inteligencia artificial. Esta medida forma parte del reciente anuncio de despidos masivos que afectarán a 10.000 empleados en toda la compañía, pero en este caso el significado es especial.

Un equipo pequeño pero importante. Este equipo era reducido y constaba de tan solo siete personas tras una reorganización que tuvo lugar en octubre. Llegaron a ser 30 personas en 2020. A pesar de los recortes, se encargaban de hacer algo importante, ya que como comentaba un exempleado de la división "nuestro trabajo era crear reglas en áreas en las que no existía ninguna".

Sacar cosas cuanto antes es más importante. En aquella reorganización de hace unos meses, John Montgomery, vicepresidente corporativo de la división de IA, explicó a los empleados que el objetivo era avanzar con rapidez. En una grabación de la reunión, ese directivo explicaba a sus empleados cómo "la presión de Kevin [Scott, Director Técnico] y Satya [Nadella,  Consejero Delegado] es muy fuerte para que los modelos más recientes de OpenAI y los que vengan después lleguen a manos de los clientes a gran velocidad".

Innovación responsable. La ética es clave para la innovación en una disciplina tan prometedora pero compleja como la inteligencia artificial. Uno de los empleados trató de poner objecciones y destacar que en su equipo estaban "profundamente preocupados" por cómo la IA podría afectar a la sociedad "y los impactos negatimos que hemos tenido. Y son significativos". Montgomery explicó que no podía hacer nada al respecto porque "las presiones siguen siendo las mismas".

Un ejemplo. EL año pasado ese equipo de ética publicó un memo en el que daban su opinión sobre los riesgos que entrañaba Bing Image Creator, que hace uso de DALL-E para generar imágenes a partir de "prompts" de texto. Predijeron correctamente cómo este servicio amenazaba los ingresos de los artistas al permitir que cualquiera pudiera copiar sus estilos. Eso planteaba también una amenaza para Microsoft, explicaban. Plataformas como Stable Diffusion han sido demandadas por Getty Images, por ejemplo, lo que muestra el problema al que efectivamente se enfrentan en Redmond con este tipo de iniciativas.

La amenaza está ahí. El desarrollo ético de tecnologías como la inteligencia artificial es crucial ahora que este campo está teniendo esta popularidad masiva, y son muchos quienes han advertido de los peligros de no entender cómo funcionan realmente ("cómo piensan") motores como ChatGPT cuando generan los textos que generan. Noham Chomsky, uno de los pensadores contemporáneos más importantes, escribía hace unos días una columna sobre la "falsa promesa" de ChatGPT y criticaba su éxito, mientras que el escritor Gary Marcus nos hablaba de cómo estas herramientas pueden acabar provocando infinitas cantidades de desinformación.

Microsoft tiene prisa. La empresa de Redmond, con poco que perder en el campo de las búsquedas, se ha mostrado especialmente apresurada en su lanzamiento de Bing con ChatGPT, aunque luego ha acabado limitando su funcionamiento para evitar problemas. Google está siendo mucho más cauta, según ellos para evitar un daño reputacional. Hay otras razones, por supuesto.

No está todo perdido. A pesar de esos despidos, en Microsoft mantienen la llamada "Oficina de IA Responsable" que precisamente está dedicada a crear reglas y directivas que gobiernen las iniciativas de inteligencia artificial en las que se embarque la empresa. Los responsables de la empresa han querido destacar en un comunicado que quieren "desarrollar productos y experiencias de IA de forma segura y responsable".

Imagen: Tony Webster

En Xataka | Guía práctica para escribir los mejores 'prompts' en Midjourney y crear imágenes alucinantes



via Robótica e IA - Xataka https://ift.tt/BFsNAh6

No hay comentarios:

Publicar un comentario