domingo, 26 de abril de 2026

Hice correr una IA en local en una vieja tostadora

    

    Una mañana que arrancó productiva por sobre todo, desde ayer estoy intentando practicar programación pero van surgiendo impedimentos varios, por lo que tuve que recurrir a la creatividad y manejarme con documentación en fotocopias y en digital para verme con la realidad de que me saca tiempo realizar una consulta mas allá de que soy bastante rápido manejándome con bibliografía.

    La respuesta es simple: instalar una Inteligencia Artifical (IA) en local.

    Los impedimentos: Tengo una notebook modelo 2013 con 4 GB de Ram, y estoy manejandome con datos móviles (también rompí el celular en la semana en un accidente de tránsito).

    De modo que estoy intentando con Ollama y una versión ligera (la SmolLM2-360M) para hacer consultas rápidas. Es todo un proceso de aprendizaje que veremos en que resulta, lo impotante es limitar la espera hasta que llegue el servicio de fibra óptica al departamento y pueda volver a la rutina que a mi me interesa llevar adelante.

     Cómo ven en la imágen, esa es la última vez que lo instalé, porque lo instalé y desinstalé varias veces al no tener seguridad de que pudiera correr en una maquina tan limitada de recursos.

 

El proceso es muy lerdo, y por eso para llevar el momento y para impedir que en la espera la máquina pase a invernación terminé poniendo una película para pasar el rato.

 

 

 Robocop nunca falla 😃

 

    Y en eso estoy, si logro que ésto funcione entonces tendré un método para aplicar en la PC principal de cara a lo que resta del año  y podría tal vez ser un buen complemento para mi formación en adelante.

    Mi gran preocupación mientras vivía en Córdoba pasaba por tener internet de calidad en todo momento, pues bien, solo a mi llegada este viene siendo un problema muy serio que espero que para el lunes ya quede resuelto.

    En el mientras tanto tendré que conseguir solo por las dudas la antena de Starlink. 

 

 

 

        En este punto había logrado la instalación, d emodo que me dispuse a instalarle una interfaz gráfica, el tema es que había que hacer un paso previo instalandole primero Docker.

 

    Algunos problemas típicos de principiante pero no es nada que me haya preocupado en el momento.

 

     Hay que insistir, en algún momento empieza a funcionar 😄 

     Todo este proceso es parte de mi antesala de regreso a la carrera, logicamete es mucho mejor hacelo desde la PC escritorio pero en este momento y para mi infortunio la notebook es la única que puede tomar una señal wifi, así que sin desanimarme voy buscando ideas con las cuales ir aprendiendo de a poco algunas cosas nuevas.

  

    Se cayó internet, este pueblo no ayuda, pero no importa, vamos a intentarlo de nuevo, lo bueno es que la IA responde al toque apenas vuelve la señal y me evita tener que pasar disgustos demorado en buscar la respuesta específica.

  

    Volvemos a probar, hay que insistir, al final del camino ésto tiene que funcionar.

 

    Miramos un poco mas de la película para variar. 

  

                                                        (Negro sapeee!! 😆 )

     

 

 

    Internet se sigue cayendo, y acá seguimos intentando, por lo limitado de la notebook y la mala señal de internet en la zona este se ha vuelto un proceso laaaargo.

 

 

        La IA es realmente una ayuda útil para este tipo de procesos de aprendizaje, el asunto se fue enredando y ahora hay que seguir algunos pasos que en un procedimiento habitual no harían falta.

    Pero aún con las mejores intenciones los problemas persisten. 

 

 

         Y aquí es donde trabajar con IA se vuelve productivo, yo desconocía la existencia de una extensión para usar Ollama en local con una interfaz gráfica desde el navegador, que en este caso como buen usuario de Linux la opción predeterminada viene a ser Firefox.

  

 

    Finalmente lo logré!!, en uan notebook vieja, sumamente lerda, conseguí hacer correr una IA para poder complementar a mis trabajos y estudios variados, una gran noticia para un fin de semana que había empezado díficil, que me lo quisieron arruinar y que ahora promete ser una ayuda muy útil para los siguientes meses. 

  

                                                    La primera consulta salió excelente! 

    Es bastante lerdo, es lerdísimo!, para la notebook puede ser un problema si hubiera que emplearlo en pruebas con límite de tiempo, pero en la PC principal creo que podría correr bastante mejor.

  

    Llevo mas de 5 minutos y se trabó muy feo,  procesar la consigna y empezar a responder le tomó cerca de 10 minutos, yo supongo que en una PC mas actualizada su rendimiento será más acorde.

    Como parte del aprendizaje resultó muy útil, fueron casi 6 horas de insistir hasta lograr el bendito objetivo.

     Tras insistir durante algunas horas no estoy seguro de que en la notebook resulte muy útil, algunos de los cuadros de información que arroja, especialmente los que deberían tener código para pasar a la terminal están vacíos.

 

  

     Hice algunas correciones en el prompt para que me emita una respuesta completa y sigo encontrando con que tiene una demora de casi 10 minutos para responder cuando la respuesta debería ser instantanea.

   

    Posiblemente en la PC principal de buenos resultados, por ahora es una experiencia rara de la que puedo sacar como positivo el haber aprendido a instalar Ollama desde la Terminal de Linux. 

    En Windows la historia va a ser muy diferente y será mas del tipo "Descargar, siguiente, siguiente, aceptar", lo típico de Windows.

  

     De momento lo dejo acá, claramente esta máquinas ya no sirve para hacer cosas actules por fuera de la ofimática, traté de seguir recomendaciones varias y encuentro que me está resultando bastante trabajoso, logré darle un uso bastante provechoso pero tiene límites muy claros.

No hay comentarios:

Publicar un comentario