sábado, 31 de julio de 2021

"Dentro de dos años va a ser imposible saber lo que es realidad y lo que no": el reto de regular los deepfakes

A principios de año, una campaña publicitaria de una empresa de cerveza consiguió resucitar a la mismísima Lola Flores. La inteligencia artificial usada obtuvo un resultado tan realista que durante semanas miles de usuarios de redes sociales se preguntaron en qué momento pronunció La Faraona palabras como “empowerment” o cómo habían logrado sincronizar esas expresiones tan actuales en un video antiguo.

Pero no, el vídeo nunca se grabó. Lola Flores nunca prestó su imagen ni su voz para el spot, ni mucho menos, dio su consentimiento. Se trataba de una secuencia artificial, hecha con el permiso de su familia a partir de más de 5.000 imágenes de la artista superpuestas en otra actriz y que, tras largas horas de producción, consiguió un resultado final capaz de suscitar fascinación y controversia, a partes iguales.

El uso de algoritmos e inteligencia artificial han propiciado la aparición de los deepfakes, manipulaciones que son capaces de tergiversar el pasado, los hechos o suplantar personas, es decir, permiten crear realidad y además, con aplicaciones de empresas como MyHeritage, cada vez son más accesibles. Pero ¿dónde está el límite en el uso de estas técnicas? ¿Existe alguna regulación que ponga coto o prevea los posibles abusos? El añejo debate sobre tecnología y ética vuelve a la palestra.

¿Qué entendemos por deepfake?

Comencemos hablando de la tecnología deepfake o, como prefiere la Fundeu, de vídeos “ultrafalsos”. El término inglés proviene de la unión de las palabras “fake”, falsificación, y “deep learning”, aprendizaje profundo, y se emplea para referirse a contenidos creados a partir de imágenes o audios ya existentes y que han sido manipulados mediante algoritmos de aprendizaje no supervisados. El resultado final es un vídeo o un audio más o menos realista, aunque netamente artificial.

Ahora bien, la tecnología siempre es neutra y no tiene connotaciones negativas, sino que estas van a depender del uso que le demos. De hecho, según Idoia Salazar, presidenta y cofundadora del Observatorio del Impacto Ético y Social de la Inteligencia Artificial (OdiseIA), esta tecnología nos ofrece un potencial nada desdeñable y permite alcanzar altas cotas de creatividad tal y como sucede en la industria cinematográfica.

Rogue One Carrie Fisher

Uno de los ejemplos más famosos lo encontramos en la película 'Rogue One: una historia de Star Wars' (2016) donde la cara de Carrie Fisher de joven, junto a la interpretación de la actriz noruega Ingvild Deila, dan vida a la Princesa Leia.

Sin embargo, un uso más discutido se produce “cuando no se explicita que se está utilizando dicha tecnología. Es lo que se denomina riesgo medio y aunque no sea intencionado, puede llevar a confusión”, apunta Salazar.

Este supuesto ya aparece contemplado en la propuesta de regulación europea sobre Inteligenca Artificial, obligando a las empresas a especificar si algo se ha creado usando esta tecnología, “exactamente igual que cuando hablas con un chatboot”, según Idoia.

Esta propuesta, sin embargo, no contempla aquellos casos más preocupantes en los que la manipulación sí encierra una intencionalidad, dejando más terreno libre a algunos de los ciberdelitos que más preocupan a los juristas.

Los riesgos asociados al uso de la tecnología deepfake

El realismo conseguido con esta técnica es de tal magnitud que puede resultar imposible saber si se trata de un contenido falseado. Esta técnica puede emplearse, por ejemplo, para propagar noticias falsas o poner en boca de políticos (como Obama) o empresarios (como Zuckerberg) palabras que nunca pronunciaron. Sin contar con su uso original, también están los vídeos eróticos falsos o “pornovenganza”: la actriz Scarlett Johansson fue víctima al protagonizar su rostro, de manera no intencionada, una grabación de contenido erótico.

Por otra parte, crear realidades falseadas con esta tecnología está en la mano de cualquiera ya que existen aplicaciones gratuitas, cada vez más populares, que permiten editar contenidos de manera sencilla. Es el caso del software Deep Nostalgia, una app que permite animar fotografías antiguas, con la promesa de “resucitar” a personas de nuestro pasado.

Estos software, apunta Salazar, “son sencillos y accesibles y estos son los dos elementos que producen la rápida expansión de una tecnología. Sin contar con que gustan mucho, hacen gracia”. Si además nos decantamos por un software de pago, el resultado puede ser extremadamente realista.

Otra de las cuestiones a debate es la posibilidad de quedar registrado en las inmensas base de datos de estas aplicaciones: Deep Nostalgia, por ejemplo, nos anima a bucear en la colección internacional de MyHeritage de 14 mil millones de registros históricos: “comience con el nombre de un antepasado y vea lo que nuestras colecciones pueden revelar sobre su historia familiar”. Aun cuando nuestros contenidos sólo sean usados para hacer funcionar la aplicación, su almacenamiento y clasificación es más que cuestionable.

En este contexto, y aunque ahora estamos en los inicios, Salazar augura que llegará un momento en que estemos rodeados de vídeos y no sepamos si son reales por lo que “si no los regulamos, dentro de dos años va a ser imposible saber lo que es realidad y lo que no”.

Además, la regulación vendría a cubrir un vacío legal, como, por ejemplo, que podamos usar las imágenes de gente fallecida sin su consentimiento. Para la campaña de Cruzcampo, la empresa contó con el asesoramiento de sus hijas que fueron las que además dieron su consentimiento. Pero ¿cómo podemos estar seguros de que Lola Flores estaría de acuerdo? ¿Es ético usar a alguien muerto con fines publicitarios? “Dentro de poco- afirma Salazar- tendremos que realizar un escrito antes de morir en el que habilitemos o deneguemos el uso de nuestra voz y nuestra imagen cuando ya no estemos”.

“Dentro de poco tendremos que realizar un escrito antes de morir en el que habilitemos o deneguemos el uso de nuestra voz y nuestra imagen cuando ya no estemos”

Salazar plantea además la necesidad de implementar técnicas, utilizando las herramientas de inteligencia artificial para detectar si los vídeos son reales o no, tal y como ya se hace con los bulos informativos. No obstante, los sistemas de detección actuales aún no están tan perfeccionados como para bloquear los deepfakes de manera inmediata. ¿Y qué decir de la alfabetización digital? Se torna complicado enseñar a los usuarios a distinguir lo que es real de lo que no, cuando resulta trabajoso incluso para los científicos forenses.

Qué problemas legales plantean las deepfakes

Los juristas especializados en ciberdelitos alertan de las importantes amenazas que esta tecnología acarrea: vulneraciones al honor, la identidad y la propia imagen (especialmente en el caso de las denominadas ‘pornovenganzas’) y, cómo no, el peligro de desinformación.

Para Noemí Brito, Socia responsable del Área de Tecnología, Innovación y Economía Digital de Ceca Magán, cabe destacar que estos ataques no sólo afectan a personas físicas: “Son comunes los ataques vía deepfake contra compañías desde la 'estafa del CEO’, que permite defraudar o desviar grandes cantidades dinerarias suplantando la identidad de un alto directivo a través de una videollamada”. El abanico de ciberdelitos asociados al uso perverso de las deepfakes es amplio y se diversifica rápidamente.

Por otra parte, el perfeccionamiento de esta tecnología y la calidad de las recreaciones amplían el espectro de la desinformación más allá de las mal llamadas “noticias falsas”. Se puede falsear la historia, hechos y declaraciones antiguas e, incluso, según un estudio reciente de la Universidad de Washington, se puede generar una "geografía falsa profunda" mediante imágenes de satélite tergiversadas y mapas falsos.

¿Cómo se plantea la regulación de una tecnología capaz de falsear la realidad?

Ley
Bill Oxford | Unsplash

En España aún no existe una legislación específica que regule el fenómeno de los deepfakes. Para Brito, la Carta de Derechos Digitales, reconoce el derecho a la identidad en el entorno digital, de acuerdo con el ordenamiento jurídico nacional y europeo. En este sentido, “indica de forma expresa que la identidad no podrá ser alterada, controlada o manipulada por terceros contra la voluntad de la persona, debiéndose prever las garantías y controles necesarios que permitan preservar este derecho en el entorno digital”.

Además, el Código Penal actual ya recoge los atentados más graves contra los derechos de las personas en este ámbito: “En su artículo 401, el Código Penal prohíbe la suplantación de identidad u usurpación del estado civil, aplicando penas de prisión que pueden ir de seis meses a tres años” apunta. De igual forma, en el ámbito civil, destaca la Ley Orgánica 1/1982, de 5 de mayo, de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen.

La regulación ya existente podría desarrollarse en nuestro país a partir de la nueva propuesta europea en torno a la Inteligencia Artificial, que pretende reforzar la transparencia en el uso de la tecnología, precisamente debido a los especiales riesgos de manipulación que plantean.

De esta forma, apunta la experta, “las entidades usuarias de un sistema de inteligencia artificial que genera o manipula contenido de imagen, audio o video que se asemeja apreciablemente a personas, objetos, lugares u otras entidades o eventos existentes, y que a una persona le parecería falsamente auténtico o veraz ('deepfakes'), deberá revelar y declarar que el contenido ha sido generado o manipulado artificialmente”.

Igualmente, dado que los deepfake pueden usarse para difundir bulos a gran escala cualquier normativa destinada a poner coto a la desinformación, también contemplará esta tecnología, tal y como sucede con las recientes directrices europeas para el Código de Buenas Prácticas frente a la desinformación.

Para Brito, además de la regulación específica del fenómeno, también se debe actuar desde desde la autorregulación, “de forma que la industria o sector que corresponda proponga mecanismos o medios razonables para luchar contra los efectos perversos asociados a estas técnicas, como así ocurre ya, por ejemplo, en términos de lucha contra la desinformación asociada”.

No toda suplantación de identidad es delito

La propuesta europea en torno a la Inteligencia Artificialregulará las condiciones a seguir para los fabricantes y productores de herramientas de IA. En concreto, todo producto creado a partir de esta tecnología deberá indicar claramente en qué momentos se hecho uso de la misma, garantizando así que no se engaña al usuario y poniendo en valor el principio de transparencia. El proyecto sólo pretende cubrir este aspecto, pero si nos centramos en la suplantación de identidad, el asunto tiene más vértices.

En España, ya disponemos de herramientas legales que nos permitirían protegernos de usos ilegítimos, ya sea por vía civil o penal. No obstante, según aclara Lorenzo Cotino, Catedrático de Derecho Constitucional de la Universidad de Valencia y Magistrado TSJ, no toda suplantación de identidad es delito: “el punto de partida es que no se criminaliza que una persona se haga pasar por otra, sino que debe haber un ánimo fraudulento, de perjudicar a alguien”. Cotino señala como ejemplo las redes sociales, en las que hemos visto proliferar perfiles falsos que usan nombres de otras persona, sin que esto constituya un delito por sí mismo.

Entonces... ¿Cuándo una suplantación de identidad a través de deepfake constituye un delito?

Selfie
dogherine | Unsplash

A partir de aquí y en función de para qué se realicen dichas suplantaciones de identidad y si estas incurren en un hecho delictivo, tenemos varias herramientas legales. Si esa suplantación de identidad, por ejemplo, se realiza para sustraer los datos bancarios de una persona, entraría directamente en juego el Código Penal.

En el caso de las “pornovenganzas” se pueden perseguir por vía penal o civil, en función de si lo consideramos un delito de calumnias e injurias o una intromisión al derecho al honor o a la propia imagen. Y aquí, de nuevo, hay matices: cuando nos referimos a imágenes reales, en las que una persona concreta está protagonizando un vídeo y no entra en juego la manipulación tecnológica, su difusión ya constituiría un delito perseguible por vía penal.

Ahora bien, cuando hablamos de deepfakes, lo más probable es que la manipulación incluya imágenes no reales, junto a otras que sí corresponden con una persona real. En este caso, añade Cotino, el uso de imágenes reales puede generar una indemnización y, si es especialmente denigrante, puede conllevar un delito por calumnias e injurias. El experto señala como ejemplo el Estado de Virginia, en Estados Unidos, donde ya se ha legislado para proteger ante este tipo concreto de vendetas.

En cuanto a su uso en el ámbito político, aunque aún no hay una respuesta unívoca, sí se tiene en cuenta "la necesidad de garantizar que estas manipulaciones no adulteran los procesos electorales, ni manipulan la opinión de la población" añade el experto. Hoy por hoy, sólo está regulado en Texas. Y, en parte, se debe a la dificultad para dilucidar si un contenido manipulado persigue la voluntad de engañar y causar daños o, si por el contrario, se tratar de un contenido paródico, en cuyo caso se ampararía bajo el derecho a la libertad de expresión. Este caso enlazaría con el uso de esta tecnología con finalidades expresivas: incluso cuando utilicemos las imágenes de personas públicas y conlleve un discurso crítico, estaríamos en el terreno de la libertad de creación artística.

Finalmente, en cuanto a las personas fallecidas, Cotino aclara que estas siempre mantienen los derechos de personalidad y son los herederos los que tienen la capacidad de disponer de la imagen si no se prevé nada especial. Si bien el concepto de “herencia digital” es algo bastante novedoso al que se hace referencia en la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales, la Ley Orgánica 1/1982 de 5 de mayo, de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen ya indicaba las pautas a seguir en el caso del uso de la imagen tras el fallecimiento. Y sí, esta ley ya existía en época de Lola Flores, pero difilcilmente hubiese podido imaginarse la Faraona todo lo que vendría después.



via Robótica e IA - Xataka https://ift.tt/3ygJMYl

miércoles, 28 de julio de 2021

MarIA: la Biblioteca Nacional y el BSC crean un sistema especializado en el idioma español para mejorar las respuestas de las IA en nuestra lengua

MarIA: la Biblioteca Nacional y el BSC crean un sistema especializado en el idioma español para mejorar las respuestas de las IA en nuestra lengua

El Barcelona Supercomputing Center (BSC) y la Biblioteca Nacional de España han presentado hoy un nuevo proyecto que combina inteligencia artificial y el estudio de nuestro idioma. Se trata de MarIA, un modelo de IA disponible en abierto que tiene como objetivo mejorar el uso del idioma español por parte de otros sistemas de inteligencia artificial.

El proyecto ha sido entrenado en el superordenador MareNostrum y se han utilizado archivos de datos de la Biblioteca Nacional. Un trabajo para el que se han utilizado fondos del Plan de Tecnologías del Lenguaje y ha sido liderado por la investigadora Marta Villegas, del grupo de minería de textos del BSC-CNS.

Procesando 59 TB del archivo de la Biblioteca Nacional

Las posibles aplicaciones de MarIA van desde "los correctores o predictores del lenguaje, hasta las aplicaciones de resúmenes automáticos, chatbots, búsquedas inteligentes, motores de traducción y subtitulación automática, entre otros", explican los responsables del proyecto. Estamos ante un modelo abierto que puede servir para entrenar a otros sistemas a mejorar su uso del idioma español, básicamente permitiéndoles "acceder" a todo el conocimiento ya procesado por MarIA.

Esto es así porque mientras MarIA sí se ofrece de manera abierta, muchos de los textos y archivos en los que se basa no lo están. No es sino este proyecto una manera de la Biblioteca Nacional de flexibilizar el acceso a sus sistemas para aquellos profesionales o proyectos que busquen ofrecer respuesta en español.

MarIA es un conjunto de redes neuronales entrenadas para comprender la lengua, su léxico y los mecanismos para expresar el significado. Según describen, el modelo logra "trabajar con interdependencias cortas y largas y son capaces de entender, no sólo conceptos abstractos, sino también el contexto de los mismos".

Para desarrollar este modelo se utilizaron 59 terabytes del archivo web de la Biblioteca Nacional. Se procesaron para eliminar números de páginas, gráficos, oraciones que no terminan, codificaciones erróneas, oraciones duplicadas y frases en otros idiomas y se enviaron al superordenador MareNostrum para pasarlo a limpio tras 6.910.000 horas en paralelo de los procesadores. El resultado fueron 201.080.084 documentos limpios que ocupan un total de 570 gigabytes de texto limpio y sin duplicidades.

Según defienden los responsables, este modelo es varias ordenes de magnitud más grande y mejor que los modelos de la lengua española disponibles en la actualidad. Una vez obtenido el archivo se utilizó tecnología basada en Transformer, ya probada con el inglés, para que la IA aprenda a adivinar el contexto de cada palabra. MarIA dispone, en sus dos modelos liberados, de hasta 125 y 355 millones de parámetros.

Tras crear este modelo, el trabajo del equipo de investigación pasa por ampliar la fuente de archivos con textos y archivos adicionales, como las publicaciones científicas del CSIC. Adicionalmente está prevista la creación de un modelo parecido en catalán, gallego, euskera, portugués y español de Hispanoamérica. Habrá que ver qué curioso nombre reciben en cada uno de ellos.

Imagen | Gabriel Sollmann



via Robótica e IA - Xataka https://ift.tt/3rC3ZW0

Cuidado Lebron, que viene Toyota CUE, el robot capaz de encestar desde el medio del campo o de meter 2.000 tiros libres seguidos

Cuidado Lebron, que viene Toyota CUE, el robot capaz de encestar desde el medio del campo o de meter 2.000 tiros libres seguidos

Los espectadores del partido de baloncesto entre Francia y Estados Unidos que se celebró hace unos días en los Juegos Olímpicos de Tokyo tuvieron sorpresa en el descanso.

Fue entonces cuando hizo su aparición Toyota CUE, un robot que juega al baloncesto y que tiene una precisión de tiro alucinante. Lo demostró encestando desde la línea de tiros libres, la línea de tres e incluso desde el medio de campo, pero ya en el pasado dejó clara su eficiencia robótica y metió 2.000 tiros libres seguidos.

Una envidiable precisión de tiro del 100%

Como explicaban el año pasado en Toyota, CUE ha sido desarrollado por un grupo de ingenieros de la empresa en su tiempo libre, y el proyecto, que lleva ya varios años en marcha, ha visto cómo han ido apareciendo varias versiones cada vez más sorprendentes.

 

La versión que por ejemplo mostraban en la CNBC hace tres años era una versión sin movilidad, pero en marzo de 2020 presentaron CUE4, una versión que se podía mover gracias a unos singulares patines en los pies y que además era capaz de coger y tirar a canasta por sí solo.

Es cierto que CUE4 no es especialmente rápido a la hora de moverse ni de coger o preparar el tiro, pero una vez tira, no falla. Lo demostró en el descanso de ese partido de los Juegos Olímpicos: tiró desde la línea de tiros libres, desde la línea de tres puntos y desde el centro del campo y en todos los casos metió canasta.

Su capacidad ya había sido demostrada con la versión anterior, CUE3, que logró meter 2.020 tiros libres seguidos aunque luego "solo" pudo meter 5 de los 8 triples que intentó tirar.

Esa versión era bastante más "primitiva", pero con este nuevo modelo desde luego el salto -y nunca mejor dicho- es espectacular. Está claro que no puede competir de momento contra jugadores humanos en muchos escenarios, pero desde luego se trata de un avance robótico llamativo.



via Robótica e IA - Xataka https://ift.tt/3rGM1kZ

Este robot bípedo es el primero en correr 5 kilómetros: no es más rápido que nosotros, pero sus tiempos son prometedores

Este robot bípedo es el primero en correr 5 kilómetros: no es más rápido que nosotros, pero sus tiempos son prometedores

Ya habíamos visto al robot de Boston Dynamics salir a hacer running, pero hay una gran diferencia entre poder hacerlo de forma eventual y mantener el ritmo durante mucho tiempo. Como cualquiera que haya salido a correr varios kilómetros, es una tarea que cansa y donde suceden más traspiés de lo que nos gustaría.

Cassie es el primer robot bípedo en completar 5 kilómetros corriendo. Un proyecto desarrollado por el profesor Jonathan Hurst y su equipo de la Universidad Estatal de Oregón. Un proyecto para el que recibieron hasta un millón de dólares del Departamento de Defensa y donde se necesitaron 16 meses para fabricar el robot, presentado en 2017.

Ahora, varios años más tardes, Cassie ha logrado completar con éxito los 5 kilómetros corriendo. Un hito que previsiblemente será superado pero que marca la consistencia en el movimiento que están consiguiendo estos robots bípedos.

5 kilómetros en 53 minutos

Cassie

Con una sola carga de batería, Cassie ha recorrido los 5 kilómetros en 53 minutos y 3 segundos. Un tiempo fácilmente superable por cualquier corredor habitual, pero bastante prometedor. En total, tenemos una velocidad media de unos 5,7 kilómetros por hora.

Este tiempo también incluye los 6,5 minutos que tuvo que perder al caerse. Un giro fallido provocó que se cayera, el ordenador del robot se calentara y el equipo tuvo que lidiar con el problema. Un pequeño ejemplo de las dificultades de estos robots para mantener su tarea en el tiempo sin sobresaltos.

Robot Correr 5k

"Cassie es un robot muy eficiente debido a cómo ha sido diseñado y construido, y pudimos realmente alcanzar los límites del hardware y demostrar lo que puede hacer”, explica Jeremy Dao, uno de los estudiantes encargados de realizar el proyecto. El robot fue entrenado con algoritmos para aprender a mantenerse recto y mantener el equilibrio constante al correr.

Según el responsable, los robots serán en el futuro tan fáciles de ver a nuestro alrededor como pueden serlo los vehículos. Con Cassie, el robot utiliza varios sistemas de cámaras y LIDAR para identificar su entorno y realizar los cálculos del algoritmo.

Vía | TechCrunch



via Robótica e IA - Xataka https://ift.tt/2TF6JoV

viernes, 23 de julio de 2021

Thermomix Friend, a prueba: el robot que te permite cocinar para un regimiento

No hay ninguna duda de que la Thermomix se ha convertido en uno de los dispositivos de la pandemia. Hace muy poco, Adrien Boyer, el director regional de Pinterest para Francia, el sur de Europa y Benelux, nos explicaba en entrevista a ABC que, directamente, le había salvado la vida durante el confinamiento. El dispositivo está pensado para quien quiere comer bien y variado, pero no tiene tiempo para elaborar un plato complejo o pensar en cómo hacerlo. Además, si le añadimos la aplicación Cookidoo de recetas, las posibilidades aumentan notablemente. La propia firma fabricante, Vorwerk, reconoce en conversación con este diario que, aunque sus productos tienen un precio elevado, como es el caso del modelo TM6, que asciende a... Ver Más

via Tecnología https://ift.tt/372obXn

sábado, 17 de julio de 2021

Llevo algunos días usando Copilot de GitHub para programar y esta es mi experiencia

Llevo algunos días usando Copilot de GitHub para programar y esta es mi experiencia

Una IA que escribe código por ti. Parece casi ciencia-ficción, pero Github Copilot lo convirtió en una realidad a principios de julio. Debates sobre derechos de autor de ese código aparte, se trata de un cambio que podría cambiar para siempre el trabajo de los desarrolladores.

Y de momento son pocos, pero ya hay algunos programadores que han podido probar Copilot durante dos días. Hemos hablado con algunos de ellos para que nos den sus primeras impresiones sobre la herramienta.

"Espectacular", "sugerencias increíbles", "muy buena"

Juan Font

Juan Font, desarrollador en la Agencia Espacial Europea, ve mucho potencial en el servicio. Nos comenta que le ha sorprendido cómo en bloques condicionales (if/else), Copilot es capaz de predecir el mensaje de registro que quiere añadir basándose a las condiciones del bloque. También destaca cómo la herramienta sugiere un nombre adecuado para una función sin que no se haya escrito ni una línea de código de ella, solamente a partir de un comentario que escribas. Además ha encontrado mucha utilidad a la hora de escribir código repetitivo (boilerplate en la jerga de programadores).

De todos modos Juan es claro y califica Copilot de "espectacular", con la impresión de que se va a convertir en algo tan básico y cotidiano como el completado de código automático que todos los entornos de desarrollo integran para evitar errores tipográficos en el código. Es algo que también ha comentado públicamente por Twitter.

Pablo Serrano

Otro programador que ha podido experimentar con Github Copilot es Pablo Serrano, ingeniero especializado en sistemas. Para él la herramienta no va a reemplazar a los programadores ni mucho menos, pero sí que va a quitarles mucho trabajo y muchas búsquedas en Stackoverflow, un portal online en el que muchos programadores resuelven dudas.

Copilot "te apabulla" con sugerencias de código, sigue Pablo, considerando que "va a quitar bastantes horas de curro" a los programadores especialmente si su código es sencillo. Si eres programador, Pablo tiene este hilo de Twitter en el que muestra algunos ejemplos de sugerencias con Terraform y Ansible.

Bruno, un desarrollador especialista en React que actualmente trabaja en un bot de Discord, también nos ha contado brevemente su experiencia después de dos días probando Github Copilot. Su sensación es "muy buena" con las pruebas que ha hecho centrándose en React y Node, y afirma que la herramienta le ha facilitado mucho su trabajo.

Para él la IA tiene mucho potencial y las recomendaciones de código que ha recibido son muy buenas, recalcando especialmente las de backend (es decir, la programación relacionada con hacer que un portal web funcione correctamente pero que el navegante nunca ve).

Códigos de diseño de interfaces y lenguajes menos usados como deberes pendientes

"Siento que que todavía está muy verde para las Interfaces de usuario y código CSS", recalca Bruno sobre Copilot, aunque califica el resto de pruebas con otros lenguajes como "increíbles". Hay cierto punto en común con lo que Pablo Serrano también menciona, y es que hay más recomendaciones generadas en lenguajes como Java y Python que con otros menos comunes como Golang.

Por su parte, Juan Font concreta que a pesar de lo bueno de las sugerencias hay que seguir revisando el código igualmente porque "a veces se lía un poco asumiendo qué variables quieres pasar a algunas funciones". Ayuda mucho, pero no afina al cien por cien.

Recogiendo estos testimonios podemos ver puntos en común: los desarrolladores tienen mucha sorpresa positiva y poca duda de un futuro prometedor para Copilot, aunque recalcan que en ciertos entornos y lenguajes de programación las sugerencias no son tan buenas como en otros. Cuestión de dejar que pase más tiempo y los responsables afinen esta herramienta que ya puede haberse hecho su propio sitio entre la comunidad de programadores.



via Robótica e IA - Xataka https://ift.tt/3rferm5

jueves, 15 de julio de 2021

La estación de autovaciado Onyx de Roborock lo hace todo más fácil [Review]

Recientemente hemos analizado aquí el Roborock S7, un robot aspiradora que además friega y que ofrece unos resultados sinceramente espectaculares. Hasta la fecha, el robot aspirador con mejor relación calidad-precio que hemos analizado hasta el canal. Sin embargo, rozaba la perfección por un pequeño detalle, las estaciones de auto-vaciado son cada vez más necesarias.

Roborock ha presentado la nueva estación de auto-vaciado y la hemos analizado en profundidad para que eches un vistazo a este complemento del Roborock S7. Descubre con nosotros como el mantenimiento de tu robot aspirador se reduce al mínimo y puedes aprovechar el tiempo que no pierdes vaciando el dispositivo.

Es el gran talón de Aquiles de este tipo de dispositivos, el momento de vaciarlos. El depósito da para lo que da, y cuando tienes mascotas (como es mi caso) da exactamente para un par de limpiezas como máximo. Por ello, cada vez que quiero reactivar mi Roborock S7 tengo que recordar si he vaciado o no su depósito. Esto ahora se volverá un problema mucho menos común gracias a este dispositivo que estamos probando, esta estación de auto-vaciado que Roborock ha adaptado a su aspirador más puntero y que se convierte inmediatamente en uno de sus mejores aliados.

Materiales y diseño: Al estilo Roborock

La estación de auto-vaciado del Roborock S7, como no podía ser de otro modo, viene en disponibilidad para dos colores, blanco y negro, coincidiendo con el color de tu robot aspirador. Cuenta con una base estándar y algo sobre-elevada, del mismo modo que dispone de un sistema de doble cilindro que alberga a su vez el depósito y el motor encargado de la succión. Por el resto, este dock ejerce exactamente las mismas funciones que las estación de carga, es decir, puede conectar a la corriente tu robot para proceder con las cargas del dispositivo.

  • Peso: 5,5 Kilogramos
  • Dimensiones: 31.4 x 45.7 x 38.3 centímetros
  • Colores disponibles: Blanco y negro

Dispone de un recogedor de cable en la parte trasera, para que lo puedas ubicar indistintamente en cualquier posición, algo bastante de agradecer. En la parte inferior cuenta con unas rugosidades que ayudan a subir al dispositivo por la pequeña rampa, del mismo modo que aprovecha para limpiar los pines de carga con una suerte de cepillos colocados estratégicamente a tal efecto. Sin duda lo relacionaremos fácilmente con la marca por sus dimensiones y por su diseño, por lo que casa completamente con lo que cabía esperar de un compañero del Roborock S7.

Sistemas de recolección de basura y polvo

Muy importante este primer apartado, de hecho me parece lo más importante y por eso llega el momento de hablar largo y tendido de él. Ya sabéis que la inmensa mayoría de estas estaciones de auto-vaciado requieren una serie de «bolsas» que suelen tener un diseño propietario, y que sin ellas sirven de entre poco y nada. Sin embargo, esta estación de auto-vaciado del Roborock S7 te permite dos mecanismos de extracción y almacenamiento de la suciedad:

  • En depósito hermético a través de sistema ciclónico de succión
  • En bolsa «atrapapolvo»

Efectivamente, utilizar o no la bolsa de depósito del Roborock S7 es una opción. Si bien es cierto que esta bolsa está específicamente diseñada para el polvo y nos permite vaciar la estación sin necesidad de extraer el depósito, no es un elemento indispensable.

La bolsa para el polvo tiene una capacidad de 1,8 Litros y se sella automáticamente. La ponemos por la ubicación superior utilizando la guía de cartón y la extraemos por la inferior al sellarse. Esta bolsa dispone de un tratamiento antibacteriano para asegurar siempre un entorno higiénico.

A parte de esto, puedes optar directamente por el diseño multiciclónico (con 15 puntos) con varias velocidades que te permitirá vaciar el depósito del Roborock S7 de forma fácil. Tenemos cuatro potencias en función del ruido y el consumo energético que estimemos:

  • Smart
  • Ligero
  • Intermedio
  • Máximo

Recomiendo el máximo, incluso aunque el ruido pueda elevarse más de lo normal, aquí lo importante es vaciar correctamente el robot, y eso es lo que hace. Este depósito dispone de un filtro estándar y dos filtros más que aseguran un sellado completo para que el polvo no salga fuera. Huelga decir que todos estos filtros se pueden extraer y se pueden limpiar fácilmente bajo el grifo, aunque nuestra prueba no ha sido tan prolongada como para ello. En caso de que optemos por el vaciado a través del sistema multicilónico de succión tendremos un depósito de 1,5 Litros, algo inferior al de la bolsa atrapa-polvo.

  • La capacidad del depósito es de alrededor de cuatro semanas

La combinación de todas estas tecnologías lo convierten en un dispositivo único, y es que no hay más sistemas de auto-vaciado de robot aspiradora que permita utilizar indistintamente tanto una bolsa como un depósito estandarizado. Por todo ello, y teniendo en cuenta lo anterior, ha recibido diversas certificaciones en TÜV Rheinland relativas a la mejora de las condiciones de vida de los alérgicos.

Con conexión inteligente

Como no podía ser de otro modo la estación de auto-vaciado del Roborock S7 se conecta con la aplicación Roborock en los mismos términos que el robot aspirador. En teoría aprovecha un algoritmo creado por la marca para adaptar el vaciado a los requerimientos de los hábitos de limpieza del usuario, pero no he notado excesiva diferencia. Podremos controlar el proceso y la potencia del vaciado fácilmente con la aplicación integrándose correctamente, es cierto que tampoco es que echemos en falta más funcionalidades.

Experiencia de usuario

Como sucedió en su momento con el Roborock S7, la experiencia que me ha ofrecido la nueva estación de auto-vaciado ha sido notablemente buena. Personalmente prefiero el sistema de vaciado ciclónico en el depósito a fin de evitar originar más suciedad con la bolsa y minimizar el mantenimiento, no obstante, sí que facilita la extracción de la mugre el hecho de utilizar sus bolsas que se sellan correctamente.

El robot ha sido lanzado a un precio que ronda los 299 euros, se puede adquirir desde ya en Geekbuying, aunque se espera que llegue a los puntos de venta habituales próximamente. Si merece la pena o no la inversión para no realizar los constantes vaciados, ya lo dejo en tus manos.

Pros y Contras

Pros

  • Multifución con bolsa o depósito
  • Fácil configuración buen diseño
  • Conectividad y configuración

Contras

  • El ruido puede resultar excesivo
  • El tamaño es considerable


via Actualidad Gadget https://ift.tt/3rdOYt3

miércoles, 14 de julio de 2021

Un algoritmo ha fichado al próximo Sergio Ramos (Ovejas Eléctricas, 1x04)

Un algoritmo ha fichado al próximo Sergio Ramos (Ovejas Eléctricas, 1x04)

Hasta hace bien poco, el mercado futbolístico tenía mucho de intuición, de ojo de buen cubero. "Este me han dicho que es bueno", "este creo que nos encaja bien". Hacer un fichaje era cuestión de criterio y confianza en informes subjetivos hasta que la digitalización también arrasó con este deporte. El Big Data reemplazó a esa intuición y los parámetros pasaron a cincelar los clubes, que podían hacer un buen cribado a la hora de determinar qué lateral izquierdo encaja con el estilo de juego del equipo, hace las suficientes intercepciones y podrá ser fichado sin tener que empeñar las joyas de la abuela.

Esta oda al Big Data no termina en los fichajes. Prevención de lesiones, nutrición, análisis post-partido... Cada vez más ámbitos del fútbol se ven revolucionados por la tecnología a un nivel que hasta hace bien poco era inimaginable. Y no hay opción B para no adaptarse a ello: renunciar al uso de datos y de tecnología es quedarse en desventaja competitiva de forma irremediable.

Y de eso va Ovejas Eléctricas, una producción de Xataka en colaboración con Samsung y en exclusiva para Audible. Hoy publicamos el cuarto episodio, siempre con invitados expertos y protagonistas que han experimentado esos cambios en primera persona. Con las secciones de Ángela Blanco y presentado por un servidor, Javier Lacort. En cada uno contamos desde un prisma diferente cómo la tecnología nos ha transformado por completo, aunque a veces sigamos esperando viajar en el tiempo acelerando hasta las 88 millas por hora.

No hay un botón mágico, sino mucho trabajo para poder llegar a las conclusiones correctas

Post Release 1

En este cuarto episodio nuestro protagonista es José Gila, responsable del departamento de Big Data en el Levante UD, de la primera división española de fútbol. Él nos cuenta cómo es el día a día en un departamento como el suyo, donde se manejan enormes cantidades de datos de cara a optimizar y acertar al máximo en la elección de fichajes para el club, entre otras tareas.

Para hablar de cómo la tecnología ha transformado al fútbol, también de despachos hacia dentro, tenemos como invitado a David Raúl Sáez, CEO en Sports Data Campus y consultor para clubes deportivos, y a David Fombella, director académico del Máster en Big Data deportivo de Sports Data Campus, y experto en consultoría y formación Big Data aplicado al deporte.

Para añadir sus comentarios sobre el potencial del Big Data y las decisiones que permite tomar su aplicación junto a soluciones basadas en Inteligencia Artificial, también tenemos como experto invitado a Álvaro Escudero, del departamento de I+D de Samsung España. Entre todos dibujan el presente de algo que ya dejó de ser futurista como es la digitalización y la parametrización del fútbol a niveles hasta hace poco impensables.

Por ser lector de Xataka, dos meses gratis de Audible

Para escuchar Ovejas Eléctricas y descubrir el catálogo de Audible puedes suscribirte desde este enlace y obtener dos meses gratis. Luego su precio es de 9,99 euros al mes.



via Robótica e IA - Xataka https://ift.tt/36xNfW6

martes, 13 de julio de 2021

Crean una Inteligencia Artifical que enseña a los robots a caminar como seres humanos

No cabe duda de que la robatización es uno de los principales desafíos a los que se enfrenta la Humanidad. Este tipo de dispositivos, que permiten acelerar los procesos industriales, y que cada vez están más presentes en los domicilios como asistentes, han llegado a ser empleados durante los últimos meses para combatir la pandemia. También se está probando su desempeño para realizar tareas de reconocimiento en escenarios de combate. Sea como fuere, todavía queda camino para que esta tecnología se desarrolle y termine de democratizarse. Facebook, en colaboración con la Universidad de Berkeley y la facultad de Ciencias de la Computación de la Universidad Carnegie Mellon -ambas estadounidenses-, ha creado una nueva Inteligencia Artificial que permite que los robots... Ver Más

via Tecnología https://ift.tt/3yPlqoo

El nuevo robot de LG está preparado para repartir envíos tanto en interiores como en exteriores

El nuevo robot de LG está preparado para repartir envíos tanto en interiores como en exteriores

LG tiene en los robots su nuevo foco. Tras abandonar el sector de los smartphones, la compañía surcoreana nos presenta sus avances en robots. Ha sido durante la Conferencia de la Sociedad Internacional de Robots, donde han revelado su robot repartidor pensado para trabajar tanto en exteriores como en interiores.

La compañía espera "liderar el mercado de robots de entrega rápida", un mercado que, según sus previsiones, está creciendo rápidamente y donde los robots son cada vez más solicitados en aquellos servicios que no requieren presencia de otra persona.

El LG Boston Robotics Lab muestra sus avances

El robot de LG puede moverse a través de sus cuatro ruedas, ajustables a medida que cambia el terreno. Según describe la compañía, el robot es capaz de soltear obstrucciones durante la conducción y moverse aunque el suelo sea irregular. Está diseñado para reducir las vibraciones, pensando en los productos que pueda contener en el interior de su cuerpo.

Lg Cloi

Hasta la fecha, LG había comercializado un robot repartidor para interiores, pero en exteriores se basaba en una prueba piloto. Ahora dan un paso más con este robot capaz de trabajar en los dos ambientes.

El robot repartidor de LG está planeado para comenzar a operar a finales de este año. Cuando se comercialice, LG espera impulsar su negocio de entrega de mercancías. Una de las ramas con las que trabaja, pues el robot pertenece a la gama LG Cloi, su división de robots que ya los habíamos visto para desinfectar habitaciones o como asistentes para controlar los electrodomésticos.

En 2020, el fabricante creó su LG Boston Robotics Lab. Una división en colaboración con el profesor Sangbae Kim, del Departamento de Ingeniería Mecánica del MIT. El profesor Kim fue director del Laboratorio de Robótica Biomimética del MIT y responsable del robot "ciego" 'Cheetah'.

Más información | LG



via Robótica e IA - Xataka https://ift.tt/3yR9thT

lunes, 12 de julio de 2021

Los robots Pepper y Spot tienen nuevo trabajo: harán de público en los Juegos Olímpicos de Tokio ante las restricciones por coronavirus

Los robots Pepper y Spot tienen nuevo trabajo: harán de público en los Juegos Olímpicos de Tokio ante las restricciones por coronavirus

El grupo empresarial japonés Softbank ha puesto a disposición de los Juegos Olímpicos de su país a dos de sus robots más famosos, Pepper y Spot, que harán las veces de público en la cita olímpica ante las nuevas restricciones dictadas por el Gobierno nipón por el reciente aumento de los contagios por coronavirus.

La organización de los JJOO de Tokio ha asegurado que las máquinas sustituirán al público para que los deportistas se sientan acompañados, una solución que han considerado más calurosa que las ya llevada a cabo en otros deportes de imprimir imágenes de personas y colocarlas en las gradas o instalar pantallas gigantes en las que los aficionados aparecían mediante videollamadas desde sus casas. El uso de este tipo de robots ya se había probado en partidos de beisbol en Japón.

Con le elección de estos dos robots para los JJOO, las gradas olímpicas se llenarán de dos máquinas que han corrido suertes dispares hasta ahora. Pepper causó una gran sensación en 2015, cuando fue presentado como el dispositivo que aspiraba a conquistar el mercado por sus múltiples aplicaciones. De hecho, fue tanta la expectativa que las primeras 1.000 unidades que se pusieron a la venta en Japón se vendieron en apenas un minuto.

En los años sucesivos su popularidad fue en aumento y lo pudimos ver recibiendo a los asistentes de la feria Viva Technology o de negocios como Pizza Hut en Singapur. Para 2017, había unas 10.000 unidades Pipper activas en todo el mundo, según Softbank. Sin embargo, desde entonces su volumen de venta ha sido bastante modesto, unos 17.000 robots más en estos casi cuatro años, motivo por el que la compañía japonesa habría decidido parar su producción en 2020, según supimos hace unas semanas.

La baja demanda ya comentada, las funciones limitadas del robot y ciertas discrepancias culturales entre las divisiones francesa y japonesa habrían ocasionado menos ventas de las esperadas y serían las responsables de que la producción se haya detenido.

Diferente es, hasta ahora, la trayectoria de Spot, el conocido como perro-robot de Boston Dynamics -compañía propiedad de Softbank-, del que cada vez conocemos más aplicaciones prácticas y que recientemente incluso ha sido probado por el ejército francés para acciones de combate como máquina de reconocimiento.

Más joven que Pipper -se puso a la venta por primera vez en 2019-, y pensando para aplicaciones mucho más prácticas, Spot puede moverse a 1,6 metros por segundo, tiene una autonomía de 90 minutos y está equipado con una gran cantidad de sensores y cámaras que le permiten moverse de forma autónoma si se fija un punto de destino, evitando obstáculos y posibles impactos. Además, puede llevar una carga de hasta 14 kilogramos y se le pueden ir colocando módulos para ampliar su número de funciones. Y, al parecer, también puede bailar.



via Robótica e IA - Xataka https://ift.tt/3yPdHqs

miércoles, 7 de julio de 2021

“Buenos días, ¿quiere usted vacunarse contra la covid?”

Un robot de voz gestiona en Cantabria las citas de vacunación.

from RSS de lo último publicado en 'Computing España' https://ift.tt/3jQno3r
via IFTTT

AiFoam es una "espuma inteligente" para que los robots tengan sentido del tacto (y se repara sola)

AiFoam es una

Unos investigadores de la Universidad Nacional de Singapur (NUS) han desarrollado una "espuma inteligente" de lo más interesante: se llama AiFoam (aunque su nombre técnico es espuma inervada artificialmente) y su objetivo es imitar el sentido del tacto humano y permitir que los robots puedan percibir objetos cercanos sin tocarlos.

Este nuevo material fue presentado por NUS en mayo de este mismo año, aunque los hallazgos fueron publicados en noviembre de 2020 en la revista Nature Communication. Según los investigadores, "queremos demostrar que es posible replicar el sentido del tacto humano en un robot, lo que abre un nuevo paradigma en la interacción entre el hombre y la máquina para futuras aplicaciones".

Robots que sienten

AiFoam es un polímero altamente elástico creado mediante una mezcla de fluoropolímero (una sustancia similar al teflón) y un tensioactivo que reduce la tensión superficial. Cuando este material se divide en trozos, es capaz de volver a unirse en una sola pieza.

Además, tiene partículas metálicas microscópicas infundidas que permiten a la espuma detectar la presencia de un objeto, como un dedo humano. Según los investigadores, AiFoam permite que el material perciba mejor la proximidad de la presencia humana y es capaz de detectar la presencia de dedos humanos a centímetros de distancia.

Nus Researchers Create Aifoam For Robots To Interact Intelligently With Their Surroundings 00 00 08 15 Imagen Fija004

¿Cómo lo hace? Digamos que AiFoam imita las terminaciones nerviosas de la piel humana. Bajo la espuma hay unos electrodos muy pequeñitos con forma de cilindro. Cuando acercamos el dedo o aplicamos presión cambiamos las propiedades eléctricas de las partículas de metal. Dicho cambio es detectado por los electrodos e interpretado por un ordenador.

De esa manera, el robot no solo puede detectar la dirección de la fuerza aplicada o la cantidad de fuerza aplicada, sino que, sobre el papel, podría entender mejor las intenciones humanas y saber que un objeto en contacto está resbalándose. Esto tiene interesantes aplicaciones futuras en prótesis o equipo industrial que requiera de precisión.

Nus Researchers Create Aifoam For Robots To Interact Intelligently With Their Surroundings 00 00 51 01 Imagen Fija002

En cuanto a las capacidades de curación, el material tensioactivo de la espuma permite que la espuma se "regenere" incluso después de recibir un corte. Los investigadores apuntan que la espuma se puede estirar hasta un 230% sin romperse.

Vía | Reuters

Más información | Universidad Nacional de Singapur



via Robótica e IA - Xataka https://ift.tt/3dO15I8

Despedido por un robot: así deciden las máquinas de Amazon los empleos de sus repartidores

Amazon está automatizando buena parte del funcionamiento de sus almacenes, hasta el punto de que sus repartidores pueden perder el trabajo si un programa decide que no ha rendido lo suficiente Leer

via Tecnología // elmundo https://ift.tt/3xmZsJ4

martes, 6 de julio de 2021

GitHub Copilot y la polémica con el copyright: el debate sobre si la IA infringe derechos de autor del código escrito por otros programadores

GitHub Copilot y la polémica con el copyright: el debate sobre si la IA infringe derechos de autor del código escrito por otros programadores

GitHub Copilot "sabe" programar gracias al código open source subido a la propia plataforma por otros desarrolladores, pero el nuevo sistema de Microsoft será de pago y no estará bajo una licencia copyleft. La IA de Github ha sido entrenada con montañas de código bajo licencia GPL. Una licencia que permite códigos derivados, pero donde estos deben ofrecerse bajo las mismas condiciones. Esto ha provocado que algunos desarrolladores hayan mostrado su malestar ante el hecho que GitHub esté aprovechando el código de otros programadores en su beneficio; para crear una IA por la que sacarán rentabilidad comercial y donde el código generado puede ofrecerse con otro tipo de licencia.

¿Protegen las leyes del copyright esta práctica? ¿Pueden los programadores evitar que su código sea utilizado por GitHub Copilot o incluso reclamar? Ante estas preguntas existen distintas posiciones. Repasamos cuál es la posición de algunos expertos, qué dicen las leyes de derechos de autor sobre este uso de la IA y qué opciones tienen los programadores.

El código copyleft está pensado para ser reutilizado

Diagrama Github

Si todo el código fuera privativo, GitHub Copilot no habría tenido material con el que entrenarse y poder ayudar al resto de programadores. Afortunadamente, Github es una plataforma con millones de líneas de código. Un material que ha permitido crear esta IA capaz de generar bloques de código simplemente indicándole algunos parámetros.

Mientras el uso del código ha generado algunas críticas, también hay voces como la de Julia Reda, única representante del Partido Pirata en el Parlamento Europeo. La diputada argumenta que mientras que una corporación como Microsoft utilice código abierto para su interés, evitar este uso iría en contra de la propia concepción del copyleft y acabaría provocando leyes del copyright más estrictas.

Que la IA genere fragmentos de código no implica necesariamente que se haya generado un trabajo derivado y por tanto cubierto por las leyes de propiedad intelectual. Aquí está precisamente la línea gris; el debate de hasta qué punto el código que genera la IA es simplemente una "referencia" o un "extracto" y hasta qué punto es un trabajo nuevo y original.

Las leyes del copyright existen para las "obras" creadas por una persona. Según explica la Organización Mundial de Propiedad Intelectual (OMPI): "las obras creativas gozan de la protección del derecho de autor si son originales, teniendo en cuenta que la mayor parte de las definiciones de originalidad requieren un autor humano". De hecho, en la legislación española, únicamente las personas y no las máquinas pueden ser considerados autores, según lo describe el artículo 1 del Real Decreto Ley 1/1996.

Más allá de la legislación actual, el debate también se establece en observar hasta qué punto el código original ha sido reestructurado para crear las nuevas piezas de código solicitadas por quienes utilicen GitHub Copilot. Sergio Carrasco, jurista de Fase Consulting, apunta que para ver si se trata de una obra derivada deberíamos "ver cómo funciona la IA, cómo reformula o transforma la obra, cómo aprende y crea los nuevos elementos y se basa en patrones que ve que funcionan. Habría que ver caso por caso y las excepciones aplicables".

El uso de la inteligencia artificial y los derechos de autor es actualmente materia de debate en el seno de la Organización Mundial de la Propiedad Intelectual. El ejemplo de GitHub Copilot no es sino un capítulo más de un debate al que de momento no se han llegado a conclusiones.

Nerea Sanjuán, abogada del Área de Derecho Mercantil de Uría Menéndez, explica en Actualidad Jurídica, que "las posibles soluciones legales que se plantean en esta materia incluyen desde la no regulación de este tipo de productos por la propiedad intelectual hasta soluciones revolucionarias que pasarían por conferir la condición de “autor” de la obra a la propia máquina".

"Quienes argumentan que la producción de GitHub Copilot es un trabajo derivado de los datos de entrenamiento esperan que esa producción se publique bajo la misma licencia GPL. Pero el efecto secundario de tal extensión de los derechos de autor sería que todos los demás contenidos generados por una IA también estarían protegidos por derechos de autor", explica Julia Reda.

De aplicarse esa visión, podría generarse un efecto contraproducente donde, pese a que inicialmente sería para proteger la licencia copyleft, podría derivar en la aplicación de las leyes del copyright de manera demasiado estricta para trabajos generados con IA.

Qué ocurre con los programadores que no quieren que se utilice su código

Desde GitHub son conscientes de que pueden haber programadores que no quieran ver su código utilizado para entrenar a la IA, pero su respuesta es bastante vaga. Tal y como explican nuestros compañeros de Genbeta, desde GitHub ofrecen un detector de duplicación. Un sistema que informará al usuario de si el código sugerido es una duplicación relevante, con la posibilidad de poder "incluir la atribución adecuada o decidir no utilizar el código en modo alguno".

Duplicacion

En los términos de licencia de GitHub se establece que se ofrece permiso a la plataforma para incluir el código en sus bases de datos e índices de búsqueda, y a compartirlo a otros usuarios, aunque no a venderlo a terceros. En caso que hubiera una demanda con un código en concreto, el caso giraría alrededor del programador y el código, pues, según GitHub, el código creado pertenece a la persona.

Imagen de portada | Shahadat Rahman
En Xataka | Programar sin escribir código es posible: así funciona la nueva era del No Code



via Robótica e IA - Xataka https://ift.tt/2UtjDqh