{"id":42548,"date":"2023-12-18T08:44:30","date_gmt":"2023-12-18T07:44:30","guid":{"rendered":"https:\/\/mancomun.gal\/novas\/llamafile-proxecto-de-mozilla-que-permite-executar-llm-nun-arquivo\/"},"modified":"2023-12-18T08:46:35","modified_gmt":"2023-12-18T07:46:35","slug":"llamafile-proxecto-de-mozilla-que-permite-executar-llm-nun-arquivo","status":"publish","type":"mncmn-nova","link":"https:\/\/mancomun.gal\/es\/novas\/llamafile-proxecto-de-mozilla-que-permite-executar-llm-nun-arquivo\/","title":{"rendered":"llamafile, proyecto de Mozilla que permite ejecutar LLM en un archivo"},"content":{"rendered":"\n<p>Mozilla ha publicado el lanzamiento de un compilador de software libre (<a href=\"https:\/\/github.com\/Mozilla-Ocho\/llamafile\">llamafile<\/a>) para <strong>simplificar el uso de modelos de lenguaje grandes (LLM)<\/strong> en escritorios y servidores. Est\u00e1 escrito en C\/C++ y distribuido bajo la licencia Apache.<\/p>\n\n<figure class=\"wp-block-image aligncenter size-full is-resized\"><img loading=\"lazy\" decoding=\"async\" width=\"640\" height=\"640\" src=\"https:\/\/mancomun.gal\/wp-content\/uploads\/2023\/12\/llamafile-640x640-1.png\" alt=\"logo de llamafile\" class=\"wp-image-42544\" style=\"width:500px\" srcset=\"https:\/\/mancomun.gal\/wp-content\/uploads\/2023\/12\/llamafile-640x640-1.png 640w, https:\/\/mancomun.gal\/wp-content\/uploads\/2023\/12\/llamafile-640x640-1-300x300.png 300w, https:\/\/mancomun.gal\/wp-content\/uploads\/2023\/12\/llamafile-640x640-1-150x150.png 150w\" sizes=\"auto, (max-width: 640px) 100vw, 640px\" \/><\/figure>\n\n<p><strong>Llamafile puede tomar un modelo de aprendizaje autom\u00e1tico en formato GGUF y convertirlo en un archivo ejecutable en diferentes sistemas operativos<\/strong> (macOS, Windows, GNU\/Linux, FreeBSD, OpenBSD y NetBSD) y en diferentes plataformas de hardware (AMD64 y ARM64).<\/p>\n\n<p>Mozilla mencion\u00f3 que:<br\/>\u201cNuestro objetivo es hacer que los modelos de lenguajes grandes de c\u00f3digo abierto sean mucho m\u00e1s accesibles tanto para los desarrolladores como para los usuarios finales. Estamos haci\u00e9ndolo combinando llama.cpp con Cosmopolitan Libc en un marco que colapsa toda la complejidad de los LLM en un \u00fanico archivo ejecutable (llamado \u00abllamafile\u00bb) que se ejecuta localmente en la mayor\u00eda de las computadoras, sin instalaci\u00f3n.\u201d<\/p>\n\n<p>\u201cSupongamos que tienes un conjunto de pesos LLM en forma de archivo de 4 GB (en el formato GGUF de uso com\u00fan). Con llamafile puedes transformar ese archivo de 4 GB en un binario que se ejecuta en seis sistemas operativos sin necesidad de instalaci\u00f3n.\u201d<\/p>\n\n","protected":false},"featured_media":42547,"template":"","categories":[46],"tags":[283],"class_list":["post-42548","mncmn-nova","type-mncmn-nova","status-publish","has-post-thumbnail","hentry","category-empresa-es","tag-ia-es"],"acf":[],"_links":{"self":[{"href":"https:\/\/mancomun.gal\/es\/wp-json\/wp\/v2\/mncmn-nova\/42548","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/mancomun.gal\/es\/wp-json\/wp\/v2\/mncmn-nova"}],"about":[{"href":"https:\/\/mancomun.gal\/es\/wp-json\/wp\/v2\/types\/mncmn-nova"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/mancomun.gal\/es\/wp-json\/wp\/v2\/media\/42547"}],"wp:attachment":[{"href":"https:\/\/mancomun.gal\/es\/wp-json\/wp\/v2\/media?parent=42548"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/mancomun.gal\/es\/wp-json\/wp\/v2\/categories?post=42548"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/mancomun.gal\/es\/wp-json\/wp\/v2\/tags?post=42548"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}