El éxito arrollador de ChatGPT ha convertido a Microsoft en la gran protagonista del segmento de la inteligencia artificial en las últimas semanas. El lanzamiento de Bing con ChatGPT está teniendo altibajos, pero está claro que su propuesta es real y al menos está permitiendo atisbar una potencial revolución en las búsquedas. Google va con pies de plomo con Bard, y ahora sabemos que hay una importante razón adicional por la que el gigante de las búsquedas va con mucho más tiento.
ChatGPT sale carísimo. Los usuarios no nos damos cuenta, pero desarrollar una plataforma como la que han puesto en marcha OpenAI o Microsoft es muy costoso. John Hennessy, presidente de Alphabet —matriz de Google—, explicaba en Reuters que tener una conversación con un motor como ChatGPT cuesta 10 veces más que una búsqueda estándar en un buscador de internet.
Estimaciones. Estudios de Morgan Stanley citados en ese texto indican que so Google desarrollara una inteligencia artificial similar a ChatGPT y con ella se gestionaran búsquedas y se respondiera en 50 palabras, el coste para Google sería de 6.000 millones de dólares al año. SemiAnalysis, otra consultora, estimaba justo la mitad, 3.000 millones de dólares al año para esa operativa.
OpenAI ya avisó. Sam Altman, CEO de OpenAI, ya explicó que el coste aproximado de cada chat era de menos de 10 centavos. Por eso la empresa ha querido empezar a rentabilizar el servicio cuanto antes y ha lanzado por ejemplo la versión "Plus" del motor de IA conversacional. Google
Y Google también. De hecho en el (desastroso) lanzamiento de Bard Google indicó que comenzaría con una versión "ligera" del modelo que "requiere mucho menos potencia computacional, permitiéndonos escalar a más usuario y permitiendo que haya más comentarios". El factor coste se une por lo tanto a esa amenaza de daño reputacional de la se habló antes del lanzamiento de Bard.
Microsoft se lo puede permitir. La cuota de mercado de Bing es de alrededor del 3%, lo que hace que salvo que su adopción se dispare, el coste del despliegue de Bing con ChatGPT supone un menor riesgo (y coste) económico para Microsoft. Su despliegue, de hecho, está siendo lento y gradual, lo que también podría estar motivado por ese elevado coste.
Hay que reducir costes. Hennessy explicaba que en Google están investigando formas de reducir el coste de esa operativa, algo que esperan resolver en dos años "en el peor de los casos". Ya hicieron algo parecido con YouTube cuando entre otras cosas desarrollaron sus propios chips de transcodificación.
Cómo lo monetizamos. Y luego está el otro problema, por supuesto. El motor de búsqueda tradicional se monetiza de forma clara con los resultados promocionados y patrocinados, pero la inserción de publicidad en textos tan directos y naturales como los de las respuestas de ChatGPT o Bing es más compleja. Aquí Microsoft, Google y el resto de este segmento —con Amazon a la cabeza— debe encontrar una solución para que esa revolución de los buscadores —si es que se produce— sea rentable.
via Robótica e IA - Xataka https://ift.tt/SeXIBuP
No hay comentarios:
Publicar un comentario