Humane es una enigmática startup que ha generado cierto revuelo en los últimos días en la industria tecnológica, en parte debido a que algunos de sus fundadores y directivos son ex-empleados de Apple, además de por haber celebrado recientemente su tercera ronda de financiación.
En su equipo se encuentran Patrick Gates, Director de Tecnología en Humane y ex Director Senior de Ingeniería en Apple; Imran Chaudhri, ex Director de Diseño en el equipo de Interfaz Humana en Apple; y Bethany Bongiorno, ex Directora de Sistema Operativo en Apple. Estos dos últimos son marido y mujer, se marcharon de Apple en 2016 y son los fundadores de Humane, ambos en la imagen destacada.
Humane no solo ha levantado hype, también dinero. Mucho. Concretamente, 230 millones de dólares en las mencionadas tres rondas de financiación hasta la fecha. La última, de 100 millones de dólares, en la que han participado también Microsoft y Sam Altman, el CEO de OpenAI.
Y todo sin haber presentado un solo producto al mercado.
Software + hardware + IA
Esta startup cuenta con algo más de 200 empleados, de los cuales una tercera parte aproximadamente son antiguos trabajadores de Apple, según Patrick McGee, de Financial Times. Se define a sí misma como una empresa que está construyendo una plataforma de Inteligencia Artificial sobre hardware y software.
Es decir, no va a lanzar un "simple" dispositivo ni tampoco va a lanzar algún tipo de aplicación construida sobre una API como la de GPT-4 para ejecutarse en un producto ajeno. Va a lanzar un dispositivo que integre esa Inteligencia Artificial de forma dedicada.
¿Qué dispositivo? Nadie lo sabe, pero John Gruber, de Daring Fireball, logró una presentación de diapositivas orientada a los inversores de Humane en 2021. Esta hablaba de un dispositivo corporal que incorporase una cámara, un sensor LiDAR y un proyector láser.
La idea tenía tres patas:
- Grabar todo lo que ocurre frente a nosotros para poder rescatarlo más adelante, y de esa forma conservar recuerdos de momentos inesperados, que no teníamos pensado grabar.
- Lograr que esa cámara, con ayuda del LiDAR y de Inteligencia Artificial, analice, mapee y entienda el contexto de lo que ocurre a nuestro alrededor.
- Y con esa información, proyectar información útil y contextual sobre nuestro alrededor. Ya sea sobre una pared, sobre un buzón o sobre la palma de nuestra mano.
A partir de esa información, algunos diseñadores han creado conceptos sobre cómo podría orientarse y funcionar un dispositivo así. Por ejemplo, dándonos indicaciones sobre cómo llegar al apartamento de Airbnb que hemos reservado, y una vez allí, indicarnos dónde están las llaves y cuál es el código de apertura. Todo proyectado o bien en la palma de nuestra mano, o bien, en el caso del código del buzón... sobre el propio buzón.
there's a device in development by @Humane that combines laser projection and advanced AI recognition
— aidan (@Aidan_Wolf) March 9, 2023
sounds like a low-fi context-based AR device and I'm here for it
pic.twitter.com/CMwqSoX1fA
Otro ejemplo: ver en la palma de nuestra mano el tiempo que falta para que llegue el Uber que hemos pedido, así como el modelo de coche exacto o la matrícula para poder identificarlo. Una vez dentro, ver el estado del viaje en el respaldo del conductor, como si fuese un iPad colgado sobre el asiento, pero sin iPad alguno.
Another @Humane concept for today to celebrate the Series C funding! (🎉)
— Michael Mofina (@MichaelMofina) March 9, 2023
Here’s how I envision the device being used to help you on an Uber ride. It could notify you when it approaches, confirm it’s yours with a welcome message, and give updates on the ride when you’re inside. pic.twitter.com/0xfMl1QOOl
Una pregunta natural a estos conceptos, que simplemente se basan en lo filtrado, ya que no hay producto alguno a fecha de hoy, es qué aporta respecto a ir mirando esa misma información en nuestro propio móvil o reloj inteligente. Se supone, y algunos entusiastas han respondido en esa línea, que el enfoque de Humane pasa por entender nuestro entorno y mostrar esa información de forma contextual, solo cuando sea necesario o queramos hacerlo, y sobre la superficie más apropiada, sin necesidad de sacar un dispositivo o de interactuar con él.
Si eso es suficientemente atractivo o no para una masa crítica de posibles compradores lo dictará el mercado, pero es también una incógnita si esto será parte del primer lanzamiento de la empresa, o si en cambio, veremos algo escalonado, donde lo primero sea una cámara de grabación permanente y en los siguientes pasos ya lleguen añadidos como la proyección láser.
En el comunicado de su última ronda de inversión, la empresa habla de socios estratégicos como Microsoft, OpenAI, LG o Volvo. Se entiende que Microsoft pondrá su nube, Azure, para los servicios de la plataforma, que a tenor de lo filtrado requerirán un enorme volumen de datos.
OpenAI, se explica, integrará su tecnología en el dispositivo de Humane y "entregará las experiencias de OpenAI y HumaneAI a la escala de los consumidores". LG y Volvo, por su parte, formarán parte del I+D de la empresa para encontrar formas de integrar la tecnología de Humane en entornos domésticos o automovilísticos. Volvo, concretamente, es definido como un "inversor estratégico" a través de Volvo Cars Tech Fund, el brazo inversor del fabricante sueco.
Qualcomm Ventures también es uno de los que ya invirtieron en el pasado hacia esta startup de la que todavía se desconoce casi todo... pero ya ha logrado atraer talento, dinero y atención. Ahora falta saber si su lanzamiento estará a la altura de las expectativas que ha generado. Su primer lanzamiento tendrá lugar este mismo año según han anunciado.
Imagen destacada | Humane, Freepik.
En Xataka | GPT-4 es un salto de nivel brutal respecto a ChatGPT: nueve ejemplos para comprobarlo en persona
via Robótica e IA - Xataka https://ift.tt/1wZKSr0
No hay comentarios:
Publicar un comentario