{"id":63429,"date":"2025-02-13T07:00:00","date_gmt":"2025-02-13T06:00:00","guid":{"rendered":"https:\/\/mancomun.gal\/?post_type=ficha&#038;p=63429"},"modified":"2025-02-11T12:50:16","modified_gmt":"2025-02-11T11:50:16","slug":"proxectos-libres-de-ia-llamafile-executa-de-maneira-sinxela-modelos-de-ia-no-teu-ordenador","status":"publish","type":"ficha","link":"https:\/\/mancomun.gal\/es\/ficha\/proxectos-libres-de-ia-llamafile-executa-de-maneira-sinxela-modelos-de-ia-no-teu-ordenador\/","title":{"rendered":"Proyectos libres de IA &#8211; Llamafile, ejecuta de manera sencilla modelos de IA en tu ordenador"},"content":{"rendered":"\n<p>Llamafile ofrece una manera sencilla de ejecutar grandes modelos de lenguaje en tu propia m\u00e1quina. Llamafile es el \u00faltimo proyecto de Mozilla destinado a simplificar la distribuci\u00f3n y ejecuci\u00f3n de los grandes modelos de lenguaje.<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter size-large is-resized\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"576\" src=\"https:\/\/mancomun.gal\/wp-content\/uploads\/2025\/02\/portada-video-1-1024x576.png\" alt=\"Proyectos libres de IA - Llamafile\" class=\"wp-image-63425\" style=\"width:800px\" srcset=\"https:\/\/mancomun.gal\/wp-content\/uploads\/2025\/02\/portada-video-1-1024x576.png 1024w, https:\/\/mancomun.gal\/wp-content\/uploads\/2025\/02\/portada-video-1-300x169.png 300w, https:\/\/mancomun.gal\/wp-content\/uploads\/2025\/02\/portada-video-1-768x432.png 768w, https:\/\/mancomun.gal\/wp-content\/uploads\/2025\/02\/portada-video-1-1536x864.png 1536w, https:\/\/mancomun.gal\/wp-content\/uploads\/2025\/02\/portada-video-1.png 1920w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p>Combina la potencia de llama.cpp, un marco de chatbots LLM de c\u00f3digo abierto, con Cosmopolitan Libc, una biblioteca C vers\u00e1til que asegura compatibilidad entre una amplia variedad de plataformas. Una herramienta que puede transformar los pesos complejos de los modelos en archivos f\u00e1cilmente ejecutables que funcionan en varios sistemas operativos sin necesidad de instalaci\u00f3n.<\/p>\n\n\n\n<p>Llamafile puede tomar un modelo de aprendizaje autom\u00e1tico en formato GGUF y convertirlo en un archivo ejecutable en diferentes sistemas operativos.<\/p>\n\n\n\n<p>Mozilla mencion\u00f3 que:<\/p>\n\n\n\n<p>\u201cNuestro objetivo es hacer que los modelos de lenguaje grandes de c\u00f3digo abierto sean mucho m\u00e1s accesibles tanto para los desarrolladores como para los usuarios finales. Lo estamos logrando combinando llama.cpp con Cosmopolitan Libc en un marco que colapsa toda la complejidad de los LLM en un \u00fanico archivo ejecutable (llamado \u00abllamafile\u00bb) que se ejecuta localmente en la mayor\u00eda de las computadoras, sin instalaci\u00f3n.\u201d<\/p>\n\n\n\n<p>\u201cSupongamos que tienes un conjunto de pesos LLM en forma de archivo de 4 GB (en el formato GGUF de uso com\u00fan). Con llamafile puedes transformar ese archivo de 4GB en un binario que se ejecuta en seis sistemas operativos sin necesidad de instalaci\u00f3n.\u201d<\/p>\n\n\n\n<p>Tienes las instrucciones de instalaci\u00f3n y funcionamiento en su <a href=\"https:\/\/github.com\/Mozilla-Ocho\/llamafile\">GitHub<\/a>.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"caracter\u00edsticas-principais\"><strong><strong>Caracter\u00edsticas principales<\/strong><\/strong><\/h2>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong><strong>Multiplataforma<\/strong><\/strong>: Funciona en macOS, Windows, GNU\/Linux, FreeBSD, OpenBSD y NetBSD, compatible con varias arquitecturas de CPU y aceleraci\u00f3n por GPU.<\/li>\n\n\n\n<li><strong><strong>Eficiencia y rendimiento<\/strong><\/strong>: Utiliza tinyBLAS para una aceleraci\u00f3n por GPU fluida y optimizaciones recientes para un rendimiento eficiente en CPU, haciendo la IA local m\u00e1s accesible.<\/li>\n\n\n\n<li><strong><strong>Facilidad de uso<\/strong><\/strong>: Convierte los pesos de los modelos en archivos ejecutables con un solo comando, simplificando el despliegue.<\/li>\n\n\n\n<li><strong><strong>C\u00f3digo abierto e impulsado por la comunidad<\/strong><\/strong>: Licenciado bajo Apache 2.0, promoviendo las contribuciones de la comunidad y mejoras continuas.<\/li>\n\n\n\n<li><strong><strong>Integraci\u00f3n con otras plataformas<\/strong><\/strong>: Soporta pesos externos, adaptable a diversos casos de uso y compatible con proyectos de IA en plataformas como Hugging Face.<\/li>\n<\/ul>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"usabilidade-e-rendemento\"><strong><strong>Usabilidad y rendimiento<\/strong><\/strong><\/h2>\n\n\n\n<p>Para un procesamiento m\u00e1s r\u00e1pido, puedes usar la GPU de tu ordenador. Esto requiere instalar los controladores apropiados (NVIDIA CUDA para GPUs NVIDIA) y a\u00f1adir un flag durante la ejecuci\u00f3n (consulta la documentaci\u00f3n de Llamafile para m\u00e1s detalles).<\/p>\n\n\n\n<p>La experiencia puede variar seg\u00fan el hardware; aquellos que tengan GPUs discretas probablemente ver\u00e1n un mejor rendimiento que los que usen gr\u00e1ficos integrados. Aun as\u00ed, la capacidad de Llamafile para ejecutar LLMs directamente en tu dispositivo significa que no necesitas depender de caros servicios en la nube. Esto no solo mantiene tus datos privados y seguros, sino que tambi\u00e9n reduce el tiempo de respuesta, haciendo que las interacciones de IA sean m\u00e1s r\u00e1pidas y flexibles.<\/p>\n\n\n\n<h2 class=\"wp-block-heading\" id=\"v\u00eddeo\">V\u00eddeo<\/h2>\n\n\n\n<figure class=\"wp-block-video aligncenter\"><video height=\"720\" style=\"aspect-ratio: 1280 \/ 720;\" width=\"1280\" controls src=\"https:\/\/mancomun.gal\/wp-content\/uploads\/2025\/02\/Llamafile-executa-de-maneira-sinxela-modelos-de-IA-no-teu-ordenador.mp4\"><track src=\"https:\/\/mancomun.gal\/wp-content\/uploads\/2025\/02\/Llamafile-executa-de-maneira-sinxela-modelos-de-IA-no-teu-ordenador-0211112314.vtt\" srclang=\"gl\" label=\"Llamafile executa de maneira sinxela modelos de IA no teu ordenador-0211112314.vtt\" kind=\"subtitles\"\/><\/video><\/figure>\n\n\n\n<div class=\"wp-block-file\"><a id=\"wp-block-file--media-53a4f451-6c05-42da-9599-96e9e9000a5e\" href=\"https:\/\/mancomun.gal\/wp-content\/uploads\/2025\/02\/Llamafile-executa-de-maneira-sinxela-modelos-de-IA-no-teu-ordenador-0211112314-1.vtt\">Llamafile executa de maneira sinxela modelos de IA no teu ordenador-0211112314<\/a><a href=\"https:\/\/mancomun.gal\/wp-content\/uploads\/2025\/02\/Llamafile-executa-de-maneira-sinxela-modelos-de-IA-no-teu-ordenador-0211112314-1.vtt\" class=\"wp-block-file__button wp-element-button\" download aria-describedby=\"wp-block-file--media-53a4f451-6c05-42da-9599-96e9e9000a5e\">Descarga\t <\/a><\/div>\n\n\n\n<p><\/p>\n","protected":false},"featured_media":63428,"template":"","categories":[46],"tags":[283],"area":[707],"class_list":["post-63429","ficha","type-ficha","status-publish","has-post-thumbnail","hentry","category-empresa-es","tag-ia-es","area-pildoras-es"],"acf":[],"_links":{"self":[{"href":"https:\/\/mancomun.gal\/es\/wp-json\/wp\/v2\/ficha\/63429","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/mancomun.gal\/es\/wp-json\/wp\/v2\/ficha"}],"about":[{"href":"https:\/\/mancomun.gal\/es\/wp-json\/wp\/v2\/types\/ficha"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/mancomun.gal\/es\/wp-json\/wp\/v2\/media\/63428"}],"wp:attachment":[{"href":"https:\/\/mancomun.gal\/es\/wp-json\/wp\/v2\/media?parent=63429"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/mancomun.gal\/es\/wp-json\/wp\/v2\/categories?post=63429"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/mancomun.gal\/es\/wp-json\/wp\/v2\/tags?post=63429"},{"taxonomy":"area","embeddable":true,"href":"https:\/\/mancomun.gal\/es\/wp-json\/wp\/v2\/area?post=63429"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}