Tecnología

No tenía idea de cómo ejecutar una IA local y lo hice en cinco minutos con mi Android. Ha sido un desastre – En un click

No tenía idea de cómo ejecutar una IA local y lo hice en cinco minutos con mi Android. Ha sido un desastre

 – En un click

La carrera de quién fabrica el teléfono inteligente más capaz no estará solo en sus componentes: la IA se ha convertido en un esencial absoluto para ganar esta batalla. Géminis es el protagonista absoluto, tanto en Android como en un iOS en el que la presencia de IA es insignificante. Un asistente completo y capaz, con el requisito de estar conectado permanentemente a Internet.

Google, la madre de Gemini, ha decidido darle una oportunidad a los modelos 100% locales en Android. Incluidos los de sus competidores. Yo, que nunca había ejecutado una IA local en una PC, he podido lograrlo en mi teléfono en cinco minutos.

10 aplicaciones de Google que podrían haber triunfado

Instalación de Google Ai Edge Gallery

Google ha lanzado una aplicación de código abierto para que cualquier usuario pueda interactuar con los modelos de IA multimodales. Es completamente gratuito, no tiene publicidad, y su única limitación es que no se publica en Google Play Store. Tienes que Descargarlo de Github.

Es tan fácil como hacer clic en el enlace y descargar el archivo, que pesa 115 MB. Una vez que lo haya descargado, haga clic en él e instale como cualquier otra aplicación. Dependiendo de la capa de personalización que use y del navegador del que la descarga, es posible que el sistema solicite el permiso ocasional. Délo sin miedo, ya que es una aplicación limpia de Google.

Una vez instalada, la aplicación estará en el cajón o escritorio de su teléfono, dependiendo de su capa. Simplemente ábralo y descargue los modelos disponibles para comenzar a usarlo.

Usando la IA local en mi Android

Esta aplicación le permite usar cuatro modelos predeterminados de la IA local:

  • Gemma-3n-e2b-it-int4
  • GEMMA-3N-E4B-IT-IN4
  • Gemma3-1b-it-q4
  • QWEN2.5-1.5B-Instructo Q8

Es muy probable que cada uno de estos nombres suene a los chinos, pero hay un resumen muy simple. Gemma son los modelos de Google y el número detrás de «E2B, E4B, 1B», se refiere al número de parámetros de cada modelo (2 mil millones, 4,000 millones, 1,000 millones). Esto significa que, en orden, Gemma 3 1B es el modelo más rápido, pero más básico, seguido de E2B y con E4B a la cabeza como el más completo.

En el lado qwen, es un modelo chino desarrollado por Alibaba, con 1,5 mil millones de parámetros y una precisión bastante lógica. Estos son los modelos que trae la aplicación, pero podemos instalar modelos por nuestra cuenta.

Lo que gano y lo que pierdo usando el local

La aplicación Google está diseñada para ejecutar tres escenarios de uso:

  • Preguntas de imágenes: resolución de problemas, identificación de objetos, etc.
  • Laboratorio rápido para resúmenes, reescritura de textos y generación de códigos.
  • AI Chat: conversaciones múltiples con AI

La IA local es algo más limitada en estos escenarios de uso, pero a cambio es más privado. Se ejecuta 100% en su teléfono, sin conexión con servidores. Esto minimiza la latencia de respuesta, algo que quería verificar con una prueba bastante simple: la traducción de un texto no demasiado extenso.

«Si la potencia informática en cada chip continúa creciendo exponencialmente, Moore Real exigió también fue útil en aplicaciones comerciales. Los contratistas de defensa pensaron en los chips principalmente como un producto que podría reemplazar electrónica más antigua en todos los sistemas militares.
«Cuando el Secretario de Defensa de los Estados Unidos, Robert McNamara, reformó la adquisición militar para reducir los costos a principios de la década de 1960, causando lo que sub en la industria electrónica llamó la» depresión de McNamara «, la visión de Fairchild de chips para civiles parecía una prisión de circuitos integrados para los clientes civiles incluso los productos de fabricación por debajo de los costos de fabricación, con la esperanza de convencer a más clientes de Trym».
  • CHATGPT (4to): 5 segundos
  • Deepseek: 19 segundos
  • El Google local (Gemma 3 1B): no ha entendido la instrucción.
  • Google Local (Gemma 3 E2B): 26 segundos.
  • Google Local (Gemma 3 E4B): 34 segundos.
  • Google Local (Qwen 2.5): 16 segundos.

Los resultados son bastante irregularesY eso es que la aplicación está en su etapa inicial. El principal problema que he encontrado es que a veces es difícil para él ejecutar el modelo, incluso en casos de modelos de luz como Qwen. En un Samsung Galaxy S25 Ultra, he tenido que reiniciar la aplicación en alguna ocasión, ya que no ejecuté el aviso.

También he querido demostrar cómo se resuelven los problemas simples con la comprensión visual de las imágenes, utilizando el modelo pesado E4B de Gemma. También ha sido bastante desastre. En el primer intento, le he pedido que resuelva todos los problemas. Ha tenido éxito. En el segundo, le he pedido que resuelva solo el primero. Se equivocó y, después de decirle que estaba mal, tiene ERR.

Sí, hace un buen trabajo reconociendo elementos en las imágenes, pero aún tiene dificultades para ir más allá (Google solo permite que sus modelos Gemma elijan para estas tareas).

El asistente de conversación funciona bien, con sus limitaciones, pero bien. Sirve para hablar y ayudarnos con cualquier tarea en la que se nos ocurra que no necesite una búsqueda de tiempo real en Internet.

Si está especialmente celoso con su privacidad y desea ejecutar sin conexión de servidor, es una alternativa relativamente válida. Google tiene esta aplicación como laboratorio de prueba. Al menos por ahora no es una alternativa real, mucho menos, para Géminis.

Imagen |

En | Inteligencia artificial en su PC: las mejores herramientas gratuitas para instalar modelos de IA como Deepseek, Call, Mistral, Gemma y más

Redacción
About Author

Redacción