El CEO de Apple, Tim Cook, anunció el lunes un acuerdo con OpenAI para incluir su potente modelo de inteligencia artificial en su asistente de voz Siri.
Pero en la letra pequeña de un documento técnico que Apple publicó tras el evento, la empresa deja claro que Google, de Alphabet, ha surgido como otro ganador en la búsqueda de la empresa de Cupertino, California, para ponerse al día en IA.
Para construir los modelos básicos de IA de Apple, los ingenieros de la empresa utilizaron su propio marco de software con una serie de hardware, concretamente sus propias unidades de procesamiento gráfico (GPU) y chips disponibles únicamente en la nube de Google denominados unidades de procesamiento tensorial (TPU).
Este contenido se hizo gracias al apoyo de la comunidad de El Destape. Sumate. Sigamos haciendo historia.
Google lleva unos 10 años construyendo TPUs y ha hablado públicamente de dos tipos de chips de quinta generación que pueden utilizarse para el entrenamiento de IA; la versión de rendimiento de la quinta generación ofrece un rendimiento competitivo con los chips de IA Nvidia H100, según Google.
Además anunció en su conferencia anual de desarrolladores que este año se lanzará una sexta generación.
Los procesadores están diseñados específicamente para ejecutar aplicaciones de IA y entrenar modelos, y Google ha creado una plataforma de hardware y software de computación en nube en torno a ellos.
Apple no ha explicado en qué medida confía en los chips y el software de Google en comparación con el hardware de Nvidia u otros proveedores de IA.
Pero el uso de los chips de Google suele requerir que el cliente adquiera acceso a ellos a través de su división en la nube, del mismo modo que los clientes compran tiempo de computación a AWS de Amazon.com o a Azure de Microsoft.
Con información de Reuters