Nesta entrega analizamos outra das ferramentas importantes para o traballo, o cifrado de arquivos. PGPTool é unha aplicación libre de escritorio con interface gráfica (GUI) baseada en Java, que facilita o cifrado e descifrado con PGP.
PGP (Pretty Good Privacy) é un sistema de cifrado que se usa para garantir a seguridade e privacidade das comunicacións dixitais. Permite cifrar e asinar correos electrónicos, ficheiros e outros tipos de datos para protexelos contra accesos non autorizados.
PGP usa un sistema de cifrado de clave pública e privada.
Cada usuario ten un par de claves: unha clave pública, que pode compartir con outras persoas, e unha clave privada, que debe manter en segredo.
Para enviar unha mensaxe cifrada, o remitente usa a clave pública do destinatario. Só o destinatario pode descifrala coa súa clave privada.
Para asinar dixitalmente unha mensaxe, úsase a clave privada. Así, calquera pode verificar a autenticidade da mensaxe coa clave pública do remitente.
Usos principais
Seguridade no correo electrónico: Servizos como ProtonMail ou Thunderbird con Enigmail usan PGP para protexer correos.
Autenticación e verificación: Permite comprobar que unha mensaxe ou ficheiro non foi modificado e provén dunha fonte lexítima.
Cifrado de ficheiros: Pode usarse para protexer documentos sensibles.
Variantes e estándares PGP foi desenvolvido por Phil Zimmermann en 1991 e evolucionou ata converterse en OpenPGP, un estándar aberto adoptado por moitas aplicacións.
PGPTool
Será especialmente útil para quen almacena información sensible no seu ordenador e a sincroniza con Google Drive, Dropbox… e non quere que esta información quede sen cifrar.
Requírese Java Runtime Environment 1.8 ou superior.
Funcionalidades
– Suxire automaticamente os parámetros de cifrado/descifrado – non é necesario introducilos manualmente.
– Interface gráfica amigable.
– Axuda a evitar que os datos sensibles queden sen cifrar.
– Compatible coa especificación OpenPGP.
– Soporte multiplataforma – funciona en sistemas GNU/Linux, macOS e Windows.
PGP Tool é polo menos un 200 % máis fácil de usar ca outras ferramentas: O cifrado e descifrado non son un fin en si mesmos, senón un medio para acadar un obxectivo: a seguridade dos datos sensibles.
Existen algúns escenarios comúns:
– Creaches un ficheiro con información sensible e necesitas almacenalo ou envialo por rede.
– Recibiches un ficheiro cifrado e necesitas ler o seu contido, actualizalo e cifralo de novo antes de envialo.
En todos estes casos, tamén é fundamental asegurarse de que a información sensible non quede nun estado sen cifrar.
Llamafile ofrece unha maneira sinxela de executar grandes modelos de linguaxe na túa propia máquina. Llamafile é o último proxecto de Mozilla destinado a simplificar a distribución e execución dos grandes modelos de linguaxe.
Combina a potencia de llama.cpp, un marco de chatbots LLM de código aberto, con Cosmopolitan Libc, unha biblioteca C versátil que asegura compatibilidade entre unha ampla variedade de plataformas. Unha ferramenta que pode transformar os pesos complexos dos modelos en arquivos facilmente executables que funcionan en varios sistemas operativos sen necesidade de instalación.
Llamafile pode tomar un modelo de aprendizaxe automática en formato GGUF e convertilo nun arquivo executable en diferentes sistemas operativos.
Mozilla mencionou que:
“O noso obxectivo é facer que os modelos de linguaxes grandes de código aberto sexan moito máis accesibles tanto para os desenvolvedores como para os usuarios finais. Estamos a facelo combinando llama.cpp con Cosmopolitan Libc nun marco que colapsa toda a complexidade dos LLM nun único arquivo executable (chamado «llamafile») que se executa localmente na maioría das computadoras, sen instalación.”
“Supoñamos que tes un conxunto de pesos LLM en forma de arquivo de 4 GB (no formato GGUF de uso común). Con llamafile podes transformar ese arquivo de 4GB nun binario que se executa en seis sistemas operativos sen necesidade de instalación.”
Tedes as instruccións de instalación e funcionamento no seu github.
Características principais
Multiplataforma: Funciona en macOS, Windows, GNU/Linux, FreeBSD, OpenBSD e NetBSD, compatible con varias arquitecturas de CPU e aceleración por GPU.
Eficiencia e rendemento: Utiliza tinyBLAS para unha aceleración por GPU fluída e optimizacións recentes para un rendemento eficiente en CPU, facendo a IA local máis accesible.
Facilidade de uso: Converte os pesos dos modelos en arquivos executables cun só comando, simplificando o despregamento.
Código aberto e impulsado pola comunidade: Licenciado baixo Apache 2.0, promovendo as contribucións da comunidade e melloras continuas.
Integración con outras plataformas: Soporta pesos externos, adaptable a diversos casos de uso e compatible con proxectos de IA en plataformas como Hugging Face.
Usabilidade e rendemento
Para un procesamento máis rápido, podes usar a GPU do teu ordenador. Isto require instalar os controladores apropiados (NVIDIA CUDA para GPUs NVIDIA) e engadir un flag durante a execución (consulta a documentación de Llamafile para máis detalles).
A experiencia pode variar segundo o hardware; aqueles que teñen GPUs discretas probablemente verán un mellor rendemento que os que usen gráficos integrados. Aínda así, a capacidade de Llamafile para executar LLMs directamente no teu dispositivo significa que non precisas depender de caros servizos en nube. Isto non só mantén os teus datos privados e seguros, senón que tamén reduce o tempo de resposta, facendo que as interaccións de IA sexan máis rápidas e flexibles.
Nesta entrega analizaremos outra ferramenta importante para o traballo, a identificación e copia dos textos das imaxes con TextSnatcher en sistemas GNU/Linux.
TextSnatcher é unha aplicación libre e sinxela que nos permite extraer os textos das imaxes (usando dixitalización de textos ou OCR). Por detrás traballa coa potente ferramenta libre Tesseract.
Existen moitas ferramentas para realizar este traballo de extracción de textos, pero TextSnatcher facilita moito o proceso. Permite aos usuarios copiar rapidamente texto de calquera imaxe na pantalla ao portapapeis do sistema.
– A interface da aplicación é moi sinxela de usar. Só teremos usar a ferramenta de captura de pantalla predeterminada, que nos permitirá seleccionar o tipo de captura de pantalla que desexamos (completa, ventá actual ou selección).
– Conta con soporte para varios idiomas, que se poden seleccionar na interface: inglés, tailandés, támil, xaponés, hindi, árabe, ruso, francés, chinés (simplificado) e español.
– Utiliza Tesseract OCR 4.x para o recoñecemento de caracteres.
– Está publicada baixo unha licenza libre GPL 3.0.
– Podes acceder ao código a través do seu repositorio en Github.
Vídeo sobre TextSnatcher
Mércores, 11 Decembro 2024
Proxectos libres de IA – EuroLLM, liderando a IA de Código Aberto en Europa
Continuamos coa publicación de artigos sobre proxectos libres relacionados coa Intelixencia Articial.
Co lanzamento dos seus primeiros modelos de linguaxe extensa (LLM), o proxecto EuroLLM pretende ofrecer un modelo LLM multilingüe e multimodal competitivo para os 24 idiomas oficiais europeos.
Iniciado en setembro de 2024 e publicado baixo a licenza de código aberto Apache 2.0, os primeiros modelos de EuroLLM exemplifican como a intelixencia artificial (IA) pode adaptarse á diversidade lingüística de Europa, fomentando ao mesmo tempo un ecosistema europeo innovador en IA.
Os primeiros modelos de EuroLLM, o EuroLLM-1.7B e o seu modelo complementario de afinación, EuroLLM-1.7B-Instruct, teñen como obxectivo proporcionar aos usuarios europeos un LLM competitivo que poida recibir indicacións e xerar texto en todos os idiomas oficiais europeos.
Os LLM establecidos adoitan centrarse no inglés e noutros poucos idiomas amplamente falados. En cambio, EuroLLM propón unha solución enfocada a unha ampla variedade de linguas faladas.
Para crear capacidades multilingües e multimodais, EuroLLM adestrou o seu modelo EuroLLM-1.7B cun amplo conxunto de datos que inclúe 4 billóns de tokens, representando diferentes fontes de datos e todos os idiomas considerados. Para a afinación en tarefas de instrución, desenvolveuse o modelo EuroLLM-1.7B-Instruct empregando EuroBlocks, un conxunto de datos multilingües creado por EuroLLM para estas tarefas.
O EuroLLM-1.7B-Instruct destacou especialmente ao superar o rendemento de Gemma-2B, o modelo “aberto” de Google baseado na mesma investigación que os seus modelos Gemini.
Desenvolvendo LLM dispoñibles en todos os idiomas oficiais europeos, así como noutros idiomas importantes como o ruso, o árabe e o chinés, EuroLLM proporciona aos usuarios europeos e globais acceso a tecnoloxía de IA competitiva nos seus idiomas preferidos.
EuroLLM é un proxecto cofinanciado pola Unión Europea e conformado por un consorcio de nove socios, incluíndo universidades europeas de prestixio, laboratorios técnicos de investigación establecidos e empresas especializadas en tradución con IA, tanto de Europa como doutros lugares. O proxecto tamén está vinculado á Empresa Común Europea de Computación de Alto Rendemento (EuroHPC JU), formando parte dun obxectivo estratéxico máis amplo: crear un ecosistema de IA europeo competitivo e innovador.
Coa publicación dos seus modelos baixo unha licenza de código aberto, que inclúe pesos abertos, o proxecto ten o potencial de fomentar a innovación europea no ámbito da intelixencia artificial de código aberto.
Presentándose como un proxecto de “código aberto” e “pesos abertos”, os modelos de EuroLLM foron publicados en HuggingFace tras o seu lanzamento. A decisión de abrir os modelos proporciona unha base para un desenvolvemento innovador posterior e demostra como as infraestruturas de supercomputación da UE poden ser utilizadas para impulsar a innovación aberta.
Vídeo
Mércores, 13 Novembro 2024
Appointment de Thunderbird, para programación de reunións
Un novo proxecto de Thunderbird foi presentado: Appointment.
Appointment fai que sexa sinxelo programar reunións con calquera persoa, desde amigos e familiares ata colegas e descoñecidos. Esquécete dos fíos infinitos de correos electrónicos intentando atopar un momento axeitado para reunirte entre diferentes zonas horarias e organizacións.
Con Appointment, podes compartir facilmente a túa dispoñibilidade personalizada e permitir que outros reserven un tempo na túa axenda. É simple e directo, sen complicacións.
Planifica menos, fai máis: Appointment de Thunderbird
Se xa probaches ferramentas similares, Appointment resultarache familiar, aínda que capturando o que fai único a Thunderbird: é software libre e baséase nos valores fundamentais de privacidade, apertura e transparencia.
Appointment formará parte dunha suite máis ampla de produtos útiles que melloren a experiencia central de Thunderbird.
Appointment lanzarase en diferentes fases, mellorándoo continuamente a medida que abren o acceso a máis persoas. Actualmente está en beta pechada, polo que podes apuntarte á lista de espera.
A Open Source Initiative (OSI) uniuse a outros colectivos para lanzar o Open Forum for AI (OFAI), cun enfoque centrado nas persoas para o desenvolvemento da IA. Unha iniciativa deseñada pola Universidade Carnegie Mellon (CMU) para promover un enfoque centrado nas persoas para a intelixencia artificial.
OFAI ten como obxectivo mellorar a nosa comprensión da IA e o seu potencial para aumentar as capacidades humanas, ao mesmo tempo que promove prácticas de desenvolvemento responsables.
No centro de OFAI está o compromiso de asegurar que o desenvolvemento da IA sirva ao interese público. Co apoio de socios de renome como Omidyar Network, NobleReach Foundation e o financiamento interno de CMU, OFAI está en posición de ser unha plataforma clave para moldear estratexias e políticas de IA que prioricen a seguridade, a privacidade e a equidade.
Stefano Mafulli e Deb Bryant da OSI participarán en OFAI, integrando os seus esforzos cara a unha definición estándar de IA de Código Aberto a través dun proceso colaborativo que inclúa actores da comunidade de código aberto, a industria e o ámbito académico, así como as súas contribucións ás políticas públicas.
Participantes notables como Michele Jawando de Omidyar Network e Arun Gupta de NobleReach Foundation subliñaron a importancia da IA de Código Aberto para impulsar a innovación e a inclusión, así como a necesidade dun enfoque centrado nas persoas e baseado na confianza para o desenvolvemento da IA.
OFAI ten como obxectivo influír nas políticas de IA mediante a coordinación de obxectivos de investigación e política, defendendo un desenvolvemento de IA transparente e inclusivo.
A iniciativa centrarase en cinco áreas clave:
– Investigación
– Prototipos técnicos
– Recomendacións políticas
– Compromiso comunitario
– Talento ao servizo
Un dos proxectos fundacionais de OFAI é a creación dun marco de “Apertura na IA”, que busca facer o desenvolvemento da IA máis transparente e inclusivo. Este marco servirá como un recurso vital para os responsables políticos, investigadores e a comunidade en xeral.
Vídeo sobre o Open Forum for AI
Xoves, 12 Setembro 2024
Aplicacións libres orientadas a empresa – xestión de proxectos con OpenProject
Nesta entrega analizaremos outra ferramenta fundamental para o traballo, o xestor de proxectos OpenProject.
OpenProject é unha solución completa de software libre para a xestión de proxectos. Unha potente ferramenta de código aberto que ofrece unha ampla gama de funcionalidades para cubrir as necesidades de equipos e organizacións de todos os tamaños. A plataforma permite aos usuarios aplicar metodoloxías de xestión de proxectos clásicas, áxiles ou híbridas nun entorno seguro e colaborativo.
Planificación e programación
OpenProject proporciona ferramentas robustas para a planificación e programación de proxectos. Os usuarios poden crear e visualizar plans de proxecto usando diagramas de Gantt, o que facilita descompoñer actividades e establecer calendarios detallados para acadar os obxectivos do proxecto de xeito eficiente.
Metodoloxías áxiles
A plataforma é compatible con metodoloxías áxiles como Scrum e Kanban. Os taboleiros áxiles de OpenProject permiten organizar ao equipo de forma eficaz e ter unha visión clara do progreso do proxecto, favorecendo a colaboración e a adaptación.
Planificación de recursos
O planificador de equipos de OpenProject permite asignar tarefas visualmente aos membros do equipo nun calendario semanal ou quincenal. Esta función axuda a xestionar a carga de traballo e proporciona unha mellor perspectiva das actividades en curso.
Seguridade e protección de datos
OpenProject dá gran importancia á seguridade e protección dos datos:
– A plataforma pódese instalar na infraestrutura propia da organización, ofrecendo control total sobre os datos.
– Inclúe cifrado HTTPS, contrasinais seguras, autenticación de dous factores e definición do tempo de sesión.
– Ao ser de código aberto, permite unha visión clara do código fonte e a liberdade de usar, distribuír, estudar e modificar o software sen restricións.
Opciós de implementación
OpenProject ofrece diferentes opcións para adaptarse ás necesidades específicas de cada organización:
– Community Edition: Versión gratuíta cunha ampla variedade de funcións básicas.
– Enterprise On-Premises: Inclúe soporte profesional, extensións empresariais e funcionalidades de seguridade adicionais para instalacións autoaloxadas.
– Enterprise Cloud: Solución SaaS aloxada por OpenProject, que inclúe soporte profesional e extensións empresariais sen necesidade de configuración técnica.
Casos de uso
OpenProject demostrou ser beneficioso para diversas organizacións:
– Varias universidades utilízano para que os estudantes apliquen técnicas de xestión de proxectos na práctica.
– Nas empresas facilita a planificación rápida e exhaustiva de proxectos, mellorando a coordinación con clientes.
– Na Administración pública axuda a visualizar cronogramas e mellorar a coordinación entre os membros do equipo.
– Nas Organizacións sen ánimo de lucro proporciona unha plataforma centralizada para organizar tarefas e mellorar a eficiencia na xestión de proxectos.
Vídeo sobre o xestor de proxectos
Mércores, 14 Agosto 2024
Proxectos libres de IA – Mellorando a accesibilidade con IA
Continuamos coa publicación de artigos sobre proxectos libres relacionados coa Intelixencia Articial.
Despois de levar o sistema Braille ao mundo dixital e crear o primeiro lector de pantalla para a web, a Dra. Asakawa está traballando nun dispositivo con intelixencia artificial para axudar ás persoas cegas a navegar polo mundo de forma independente, un sistema de navegación interior chamado a Maleta IA:
“Cando comecei en IBM en 1985, decateime de que a tecnoloxía ten o poder de cambiar e mellorar a nosa calidade de vida, especialmente para aquelas persoas que están marxinalizadas pola sociedade,” di a Dra. Chieko Asakawa, membro de IBM e directora executiva do Museo Nacional de Ciencia e Innovación Emerxente (Miraikan).
“Decateime de que nós, é dicir, científicos, investigadores, enxeñeiros, e outros, podiamos facer o imposible posible. Estaba emocionada polas posibilidades.”
Dende entón, a Dra. Asakawa fixo precisamente iso, desenvolvendo tecnoloxías que permiten ás persoas con discapacidades visuais interactuar co mundo que as rodea e participar nel de maneiras que anteriormente eran difíciles ou imposibles.
Algúns dos seus primeiros proxectos en IBM consistiron en dixitalizar o sistema Braille, o sistema de lectura e escritura baseado no tacto no que os puntos en relevo corresponden á linguaxe, creando un procesador de texto e unha biblioteca dixital para Braille. Nos anos 90, co emerxer da web, a Dra. Asakawa viu outra oportunidade e creou o Home Page Reader, o primeiro lector de pantalla que daba acceso a Internet ás persoas cegas.
A medida que a tecnoloxía avanzou, tamén o fixeron as aspiracións da Dra. Asakawa, e recentemente traballou no uso da tecnoloxía para axudar con barreiras de accesibilidade moito máis complexas: o mundo en xeral. Parte de construír estas tecnoloxías, explica ela, é a capacidade de colaborar con outros. Por exemplo, o feedback que recibiu dos usuarios de Home Page Reader axudou a definir a interface de navegación, que utilizaba un teclado numérico en lugar dun rato, e distinguía as ligazóns do texto normal léndoas cunha voz diferente.
O software libre está permitindo máis colaboración ca nunca. As licenzas abertas permiten que as persoas constrúan sobre o código dos demais e desbloqueen moitos dos problemas de propiedade intelectual que poderían impedir a colaboración a través dos límites organizativos.
CaBot e outros proxectos
O equipo da Dra. Chieko Asakawa estivo traballando nun proxecto de código aberto chamado CaBot (Carry On Robot), unha maleta habilitada con IA deseñada para axudar a navegar por aeroportos e outros espazos, que atraeu contribuíntes de todo o mundo.
CaBot é só un dos varios proxectos nos que a Dra. Asakawa estivo traballando nos últimos anos. Como parte do Laboratorio de Asistencia Cognitiva de Carnegie Mellon (CAL), explorou varias formas nas que a IA pode ser utilizada para “comprender o mundo circundante para dar sentido á información para as persoas que non poden ver.”
O grupo tamén creou unha aplicación para smartphones que axuda a recoñecer obxectos persoais e outra para axudar coa navegación interior, ambas parte do proxecto de código aberto Human-scale Localization Platform (HULOP). Un tema común entre os proxectos da Dra. Asakawa é proporcionar autonomía e independencia coa axuda da tecnoloxía. Falou deste tema durante a súa charla TED en 2015.
Vídeo sobre a accesibilidade con IA
Mércores, 10 Xullo 2024
Aplicacións libres orientadas a empresa – authentik, provedor de identidade autoxestionado
Nesta entrega analizaremos unha ferramenta para tomar o control dos teus datos máis sensibles na empresa.
authentik é un provedor de identidade de software libre que enfatiza a flexibilidade e a versatilidade. Pódese integrar sen problemas en contornas existentes para soportar novos protocolos.
authentik tamén é unha solución para implementar rexistro, recuperación e outras características similares na túa aplicación, aforrándoche o traballo de xestionalas.
A medida que internet e os servizos se converten cada vez máis na norma na nosa sociedade, protexer os nosos servizos con autenticación tamén se volveu máis importante. Aquí é onde entran proxectos como autentik. Esta solución ofréceche a oportunidade de configurar un sistema de inicio de sesión único para todos os teus servizos. Isto significa que só precisas ter un inicio de sesión moi seguro e podes acceder a calquera dos servizos que utilizas todos os días.
Con autentik, xa non precisas confiar continuamente nun servizo de terceiros.
Características de autentik
– Posúe os teus datos. Non precisas depender dun servizo de terceiros para a infraestrutura crítica nin expoñer os teus datos sensibles a internet pública.
– Flexible e escalable. Utiliza os fluxos de traballo preconstruídos, ou personaliza cada paso da autenticación mediante modelos configurables, infraestrutura como código e APIs completas.
– Seguridade a través da transparencia. O código aberto é continuamente revisado por expertos na comunidade, e priorizamos a seguridade desde o deseño ata o código, probas e mantemento.
– Prezos simplificados. Non máis adiviñar se unha característica está incluída ou pagar extra por funcionalidades básicas. Cobre tanto os casos de uso B2B como B2C.
– Automatiza e simplifica. Adopta autentik ao teu entorno, independentemente dos teus requisitos. Usa as APIs e políticas totalmente personalizables para automatizar calquera fluxo de traballo. Simplifica o despregue e a escalabilidade con modelos preconstruídos e soporte para Kubernetes, Terraform e Docker Compose.
– Despregue. CoreWeave colabora con grandes empresas de IA para despregar autentik como unha ferramenta esencial de autenticación.
Vídeo sobre autentik
Mércores, 12 Xuño 2024
Proxectos libres de IA – Open Medical-LLM Leaderboard
Continuamos coa publicación de artigos sobre proxectos libres relacionados coa Intelixencia Articial. Neste artigo faremos un repaso do Open Medical-LLM Leaderboard.
Ao longo dos anos, os Modelos de Linguaxe Grande (LLMs) emerxeron como unha tecnoloxía revolucionaria con un potencial inmenso para transformar diversos aspectos da saúde. Estes modelos, como GPT-3, GPT-4 e Med-PaLM 2, demostraron capacidades notables na comprensión e xeración de texto similar ao humano, converténdose en ferramentas valiosas para afrontar tarefas médicas complexas e mellorar a atención ao paciente. Mostraron un gran potencial en varias aplicacións médicas, como preguntas-respostas médicas (QA) , sistemas de diálogo e xeración de texto.
Ademais, co crecemento exponencial dos rexistros electrónicos de saúde (EHRs), a literatura médica e os datos xerados polos pacientes, os LLMs poderían axudar aos profesionais da saúde a extraer información valiosa e tomar decisións informadas.
Non obstante, a pesar do inmenso potencial dos Modelos de Linguaxe Grande (LLMs) na saúde, hai retos significativos e específicos que precisan ser abordados.
Cando os modelos se usan para aspectos conversacionais recreativos, os erros teñen poucas repercusións; isto non é o caso para usos no ámbito médico, onde unha explicación ou resposta incorrecta pode ter consecuencias graves para o coidado e os resultados do paciente. A precisión e a fiabilidade da información proporcionada polos modelos de linguaxe poden ser unha cuestión de vida ou morte, xa que poderían afectar potencialmente as decisións de saúde, o diagnóstico e os plans de tratamento.
Para aproveitar plenamente o poder dos LLMs na atención sanitaria, é crucial desenvolver e comparar modelos utilizando un conxunto específico deseñado para o dominio médico. Este conxunto debe ter en conta as características e requisitos únicos dos datos e aplicacións sanitarias. O desenvolvemento de métodos para avaliar o Medical-LLM non é só de interese académico senón tamén de importancia práctica, dados os riscos reais que supoñen no sector sanitario.
Open Medical-LLM Leaderboard
O Taboleiro de Clasificación Open Medical-LLM ten como obxectivo rastrexar, clasificar e avaliar o rendemento dos grandes modelos de linguaxe (LLMs) en tarefas de resposta a preguntas médicas.
Avalía os LLMs a través dunha ampla variedade de conxuntos de datos médicos, incluíndo MedQA (USMLE), PubMedQA, MedMCQA e subconxuntos de MMLU relacionados coa medicina e a bioloxía. O taboleiro ofrece unha avaliación comprensiva do coñecemento médico e das capacidades de resposta a preguntas de cada modelo.
Os conxuntos de datos cobren varios aspectos da medicina, como o coñecemento médico xeral, o coñecemento clínico, a anatomía, a xenética e máis. Contén preguntas de opción múltiple e preguntas abertas que requiren razoamento e comprensión médica.
Ao ofrecer unha avaliación comprensiva do coñecemento médico e das capacidades de resposta a preguntas de cada modelo, o taboleiro pretende fomentar o desenvolvemento de LLMs médicos máis efectivos e fiables.
Esta plataforma permite aos investigadores e profesionais identificar as fortalezas e debilidades de diferentes enfoques, impulsar novos avances no campo e, en última instancia, contribuír a unha mellor atención e resultados para os pacientes.
Conxuntos de Datos, Tarefas e Configuración de Avaliación
MedQA
O conxunto de datos MedQA consiste en preguntas de opción múltiple do Exame de Licenza Médica dos Estados Unidos (USMLE). Cobre coñecementos médicos xerais e inclúe 11,450 preguntas no conxunto de desenvolvemento e 1,273 preguntas no conxunto de probas. Cada pregunta ten 4 ou 5 opcións de resposta, e o conxunto de datos está deseñado para avaliar os coñecementos médicos e as habilidades de razoamento necesarias para a licenza médica nos Estados Unidos.
MedMCQA
MedMCQA é un conxunto de datos de QA de opción múltiple a gran escala derivado dos exames de ingreso médico indios (AIIMS/NEET). Cobre 2.4k temas de saúde e 21 materias médicas, con máis de 187,000 preguntas no conxunto de desenvolvemento e 6,100 preguntas no conxunto de probas. Cada pregunta ten 4 opcións de resposta e vai acompañada dunha explicación. MedMCQA avalía os coñecementos médicos xerais e as capacidades de razoamento dun modelo.
PubMedQA
PubMedQA é un conxunto de datos de QA de dominio pechado, no que cada pregunta pode ser respondida mirando un contexto asociado (resumo de PubMed). Consta de 1,000 pares de preguntas-respostas etiquetadas por expertos. Cada pregunta vai acompañada dun resumo de PubMed como contexto, e a tarefa é proporcionar unha resposta si/non/talvez baseada na información no resumo. O conxunto de datos divídese en 500 preguntas para desenvolvemento e 500 para probas. PubMedQA avalía a capacidade dun modelo para comprender e razoar sobre literatura biomédica científica.
Subconxuntos de MMLU (Medicina e Bioloxía)
O benchmark MMLU (Medición de Comprensión Multitarefa Masiva) inclúe preguntas de opción múltiple de varios dominios. Para o Taboleiro de Clasificación Aberto de Medical-LLM, centrámonos nos subconxuntos máis relevantes para o coñecemento médico:
– Coñecemento Clínico: 265 preguntas que avalían as habilidades de coñecemento clínico e toma de decisións.
– Xenética Médica: 100 preguntas que cobren temas relacionados coa xenética médica.
– Anatomía: 135 preguntas que avalían o coñecemento da anatomía humana.
– Medicina Profesional: 272 preguntas que avalían o coñecemento necesario para profesionais médicos.
– Bioloxía Universitaria: 144 preguntas que cobren conceptos de bioloxía a nivel universitario.
– Medicina Universitaria: 173 preguntas que avalían o coñecemento médico a nivel universitario.
Conclusións
O Open Medical-LLM Leaderboard avalía o rendemento de varios modelos de linguaxe grande (LLMs) nun conxunto diverso de tarefas de preguntas e respostas médicas. Principais conclusións:
– Modelos comerciais como GPT-4-base e Med-PaLM-2 alcanzan consistentemente altas puntuacións de precisión en varios conxuntos de datos médicos, demostrando un forte rendemento en diferentes dominios médicos.
– Os modelos de código aberto, como Starling-LM-7B, gemma-7b, Mistral-7B-v0.1 e Hermes-2-Pro-Mistral-7B, mostran un rendemento competitivo en certos conxuntos de datos e tarefas, a pesar de ter tamaños máis pequenos de arredor de 7 mil millóns de parámetros.
– Tanto os modelos comerciais como os de código aberto teñen un bo rendemento en tarefas como a comprensión e o razoamento sobre literatura biomédica científica (PubMedQA) e a aplicación de coñecementos clínicos e habilidades de toma de decisións (subconxunto de coñecementos clínicos de MMLU).
O modelo de Google, Gemini Pro, demostra un forte rendemento en varios dominios médicos, destacando especialmente en tarefas intensivas en datos e procedementos como Bioestatística, Bioloxía Celular e Obstetricia e Xinecoloxía. Non obstante, mostra un rendemento moderado a baixo en áreas críticas como Anatomía, Cardioloxía e Dermatoloxía, revelando lagoas que requiren un maior refinamento para unha aplicación médica integral.
Open Life Science AI
Open Life Science AI é un proxecto que ten como obxectivo revolucionar a aplicación da intelixencia artificial nos ámbitos das ciencias da vida e a saúde.
Serve como un punto central para unha lista de modelos médicos, conxuntos de datos, referencias e seguimento de datas límite de conferencias, fomentando a colaboración, a innovación e o progreso no campo da saúde asistida por IA.
Esforzámonos por establecer Open Life Science AI como o destino principal para calquera interesado na intersección entre a IA e a saúde. Proporcionamos unha plataforma para que investigadores, clínicos, formuladores de políticas e expertos da industria poidan participar en diálogos, compartir coñecementos e explorar os últimos avances no campo.
Nesta entrega analizaremos unha ferramenta moi útil no traballo, como é a xestión dos tempos e pausas nas nosas actividades.
A aplicación Pomatez é unha ferramenta de xestión do tempo baseada na técnica Pomodoro, deseñada para mellorar a productividade. Esta aplicación, enfócase en dividir o traballo en intervalos de tempo curtos e concentrados, seguidos de breves descansos.
Método Pomodoro
O método Pomodoro é unha técnica de xestión do tempo creada nos anos 80. A súa idea principal é dividir o traballo en períodos curtos de tempo, xeralmente de 25 minutos, chamados “Pomodoros”, seguidos dun breve descanso de 5 minutos. Despois de catro Pomodoros, faise un descanso máis longo de 15-30 minutos.
O obxectivo deste método é axudar á persoa a concentrarse máis intensamente na tarefa durante o tempo asignado e evitar a fatiga mental. Ao dividir o traballo en bloques pequenos, é máis fácil manter a concentración e evitar a procrastinación. Ademais, o método Pomodoro promove a idea de rexistrar as tarefas e o tempo empregado en cada unha, o que pode axudar a analizar a propia produtividade e identificar áreas de mellora.
Pomatez
Algúns aspectos chave de Pomatez inclúen regras personalizables, unha lista de tarefas integrada, notificacións de escritorio, pausas especiais, accesos directos de teclado, actualizacións automáticas, asistencia por voz e modo escuro, entre outras.
Pomatez é unha ferramenta útil para aqueles que buscan optimizar o seu tempo e mellorar a súa produtividade en diversas actividades, desde o estudo ata o traballo.
– Lista de tarefas incorporada: permíteche crear unha simple lista de tarefas pendentes e marcar as tarefas feitas cando están completadas.
– Pausas a pantalla completa: unha vez habilitadas, obrigarante a non continuar traballando durante o tempo de pausa ocupando toda a pantalla do teu escritorio.
– Notificacións de escritorio: os tipos de notificacións admitidas son:
Ningunha – non se mostrará ningunha notificación. Predeterminado.
Normal – mostrará notificación en cada pausa.
Extra – mostrará notificación 60 segundos antes de que comece a pausa, e 30 segundos antes de que a pausa remate, e cando a pausa realmente comece.
Pausas especiais – unha característica especial que permite estabelecer momentos específicos para facer pausas importantes como xantar, merenda, cea e etc., sen actualizar a configuración do Pomodoro.
– Asistencia vocal: unha vez habilitada, a túa notificación de escritorio incluirá unha voz masculina para informarche sobre cousas relacionadas coa túa sesión de Pomodoro. Ás veces útil especialmente cando estás lonxe do teu ordenador durante o tempo de pausa.
– Tema escuro: permíteche usar o modo escuro e axúdate a reducir a tensión ocular e mellorar a visibilidade se es do tipo de persoa con baixa visión e alta sensibilidade á luz brillante.
PDF (Portable Document Format) é un formato de ficheiro aberto creado por Adobe para crear documentos impresos como se se tratase dunha imaxe electrónica que o usuario pode observala no PC, imprimila… empregando un programa lector apropiado. O aspecto dos documentos é independente do dispositivo electrónico no que se visualice.
Emprégase cando se quere conservar un documento cunha aparencia determinada e non se pretende que se vaia editar. De todas formas, nalgún momento é necesario facer algún tipo de edición, polo que existen varios programas para poder editar pdf’s que permiten unir/dividir/eliminar páxinas, entre outras características.
Existen multitude de servizos en liña que permiten facer edicións neste tipo de documentos, pero temos que ser conscientes que podemos estar enviando información privada a servidores que non controlamos, co risco de que nos rouben información sensible.
Vamos ver algunhas destas aplicacións de software libre que permiten facer edicións directamente desde o noso ordenador, sen necesidade de enviar datos a servidores externos.
LibreOffice Draw
Se necesitamos facer unha edición básica, podemos empregar esta ferramenta da suite ofimática de LibreOffice (LibreOffice Draw).
PDFtk
PDFtk é unha ferramenta sinxela para facer tarefas cotiás con documentos PDF. Ven en tres variantes: PDFtk Free, PDFtk Pro e a ferramenta en liña de comandos PDFtk Server.
PDFtk Free é unha ferramenta gráfica para fusionar e dividir rapidamente documentos e páxinas. É de uso gratuíto polo tempo que desexe.
PDF Arranger é unha pequena aplicación de python-gtk, que axuda ao usuario a fusionar ou dividir documentos PDF e a rotar, recortar e reorganizar as súas páxinas usando unha interface gráfica interactiva e intuitiva. É un frontend para pikepdf.
PDF Arranger é unha bifurcación do PDF-Shuffler de Konstantinos Poulios.
PDFsam Basic é unha aplicación de escritorio gratuita e de código aberto para dividir, fusionar, extraer páxinas, rotar e mezclar ficheiros PDF. Os teus ficheiros permanecen privados no teu ordenador, sen necesidade de envialos a un servizo de terceiros. Gratuito e de código aberto.
Editor de PDF de código aberto baseado no framework Qt. Con unha robusta biblioteca C++, aplicacións intuitivas para visualización/edición de PDF e unha práctica ferramenta de liña de comandos, PDF4QT simplifica as túas interaccións co PDF, deseñado tanto para Windows como para Linux.
Os desenvolvedores teñen acceso a unha robusta biblioteca C++ e a unha práctica ferramenta de liña de comandos para unha integración de guións sen problemas. Aloxado en Github e opera baixo a licenza LGPLv3.
PDFedit é un editor libre e de código aberto e unha biblioteca para manipular documentos PDF, lanzado baixo os termos da versión 2 da GNU GPL. Inclúe unha biblioteca de manipulación de PDF baseada en xpdf, unha interface gráfica de usuario (GUI), conxunto de ferramentas de liña de comandos e un editor de PDF.
Biblioteca multiplataforma que funciona en sistemas Unix, Windows32/64 e tamén en Windows CE e outros. Podes utiliza-lo para ler, cambiar e extraer información dun ficheiro PDF. Está baseado na biblioteca xpdf.
Continuamos coa publicación de artigos sobre proxectos libres relacionados coa Intelixencia Articial. Neste segundo artigo faremos un repaso aos MoEs (siglas en inglés de Mistura de Expertos).
Que é unha Mistura de Expertos (MoE)?
A Mezcla de Expertos na Intelixencia Artificial é unha técnica que distribúe tarefas específicas entre múltiples submodelos chamados “expertos”, cada un entrenado nun dominio particular de coñecemento.
A clave desta arquitectura radica na súa capacidade para decidir dinamicamente que experto ou combinación de expertos é máis adecuado para unha tarefa determinada, o que permite unha xestión de recursos máis eficiente e unha mellora na precisión das predicións.
A escala dun modelo é un dos eixos máis importantes para unha mellor calidade do modelo. Dado un presuposto de computación fixo, o adestramento dun modelo máis grande durante menos pasos é mellor que o adestramento dun modelo máis pequeno durante máis pasos.
A Mistura de Expertos permite preentrenar modelos con moito menos cálculo, o que significa que podes escalar dramaticamente o tamaño do modelo ou do conxunto de datos co mesmo presuposto de cálculo que un modelo denso. En particular, un modelo MoE debería acadar a mesma calidade que o seu homólogo denso moito máis rápido durante o preentrenamento.
Un MoE consta de dous elementos principais:
– Capas MoE, que teñen un certo número de “expertos” (normalmente 8), onde cada experto é unha rede neural. Os expertos poden ser redes máis complexas ou incluso un MoE en si mesmo.
– Unha rede de comportas ou encamiñador, determina que tokens se envían a que experto. Por exemplo, na imaxe de abaixo, o token “More” envíase ao segundo experto, e o token “Parameters” envíase á primeira rede. Podemos enviar un token a máis dun experto.
Algunhas das características dos MoEs son:
– Preentrenan moito máis rápido en comparación cos modelos densos
– Teñen unha inferencia máis rápida en comparación cun modelo co mesmo número de parámetros
– Requírese alta VRAM xa que todos os expertos están cargados en memoria
– Enfrontan moitos desafíos no axuste fino
En resumo, a Mezcla de Expertos na IA ofrece varias vantaxes sobre outros métodos de aprendizaxe automático. É máis eficiente, xa que só precisa executar un experto ou unha combinación de expertos para cada entrada. Ademais, é escalable, xa que se pode aumentar o número de expertos para mellorar o rendemento en problemas complexos. Tamén é versátil, xa que se pode aplicar a unha ampla gama de problemas de aprendizaxe automático.
Esta arquitectura demostrou a súa eficacia en aplicacións reais e ofrece numerosas vantaxes sobre outros métodos de aprendizaxe automático.
Proxectos de código aberto relacionados cos modelos MoE
MoEs de acceso aberto liberados
– Switch Transformers (Google): Colección de MoEs baseados en T5, desde 8 até 2048 expertos.
– NLLB MoE (Meta): Unha variante MoE do modelo de tradución NLLB.
– OpenMoE: Un esforzo comunitario que liberou MoEs baseados en Llama.
– Mixtral 8x7B (Mistral): Un MoE de alta calidade que supera a Llama 2 70B e ten unha inferencia moito máis rápida.
Mixtral 8x7b é un gran modelo de linguaxe lanzado por Mistral, o cal establece un novo estado da arte para os modelos de acceso aberto e supera a GPT-3.5 en moitos puntos de referencia.
Mixtral ten unha arquitectura semellante á de Mistral 7B, pero vén cunha reviravolta: realmente son 8 modelos “expertos” nun só, grazas a unha técnica chamada Mestura de Expertos (MoE).
Algunhas características:
– Versións base e Instruct
– Soporta unha lonxitude de contexto de 32k tokens
– Supera a Llama 2 70B e iguala ou supera a GPT3.5 na maioría dos puntos de referencia
– Fala inglés, francés, alemán, español e italiano
– Boa en programación, con 40.2% en HumanEval
– Comercialmente permisiva cunha licenza Apache 2.0
Empezamos coa publicación dunha serie de entrevistas e infografías que fixemos a varias persoas da comunidade de software libre, para coñecer as ferramentas que empregan no seu día a día nas súas tarefas habituais, o impacto que tivo o software libre na súa vida, consellos para empezar neste mundo e a súa relación con proxectos libres.
Elena Salgado
A primeira das entrevista fixémola a Elena Salgado, que traballa como Informática administrando o CRM dunha gran empresa:
Víctor Tilve
A segunda das entrevista fixémola a Víctor Tilve, matemático, científico no seu tempo libre, especialista en contaminación luminosa, divulgador científico e profesor de FP presencial e da Universidade a distancia:
Esperanza Martín
“Pues soy arqueóloga, topógrafo e ilustradora y me dedico a perder el tiempo excavando y haciendo cosas de esas. Últimamente estamos bastante centrados en el tema virtual y de generación de modelos tridimensionales, para la puesta en valor de diferentes yacimientos arqueológicos y colecciones.”
Sergio Fernández
“Son Sergio Fernández Alonso, morador no rural, pai de 2 e técnico de proxectos da Asociación Enxeñería Sen Fronteiras Galicia, onde fago labouras de deseño, seguimento e dinamización de proxectos que tratan de poñer a tecnoloxía ao servizo do ben común e os dereitos humanos.”
María José Ginzo
“Son Profesora Axudante Doutora no Departamento de Estatística, Análise Matemática e Optimización da Universidade de Santiago de Compostela. Doutoreime en Estatística e Investigación Operativa pola Universidade de Santiago de Compostela en maio de 2022, coa tese titulada “Técnicas Estatísticas en Geolingüística. Modelización Onomástica”. Os meus intereses de investigación inclúen a xeolingüística e a estatística espacial.”
Fco. Javier Teruelo
“Profesor de geografía e historia, antiguo Coordinador Informático, curioso profesional y practicante de la filosofía que dice que la informática es una herramienta demasiado potente para permitir que otros la gestionen por nosotros o para que no sepamos, al menos de manera aproximada, cómo funciona.”
Paola Mondaca
“Secretaria técnica da asociación Enxeñería Sen Fronteiras Galicia dende 2007.”
Evelio Sánchez
“Arquitecto pola Escola Técnica Superior de A Coruña. Compaxina a súa labor de consultor en ediliciaBIM, coa xestión do seu despacho de arquitectura, SPA Planeamento.”
Patricia Iglesias
“Técnica de educación para a transformación social da ONGD Amigas da Terra.”
Marc Romero
“Investigador predoutoral sobre medio ambiente e recursos naturais pola Facultade de Bioloxía da USC.”
Iraisy Figueroa
“Soy Iraisy Figueroa, miembro de Bricolabs. He participado activamente en la comunidad de software y hardware libre durante varios años. Trabajo con recursos de tecnologías educativas, contribuyendo a la promoción de herramientas de código abierto y colaborando con proyectos de la comunidad.”
Fernando A. Muñoz
Arqueólogo desde 1996, he realizado mas de un centenar de excavaciones, principalmente en la ciudad de León. Usuario de GNU/Linux desde 2008, empezando con Ubuntu y siempre usando Debian y derivadas. Ese mismo año, comienzo el blog de Arqueología y Software Libre para, por un lado crear una bitácora con procedimientos de uso diario, y también para dar a conocer a la comunidad arqueológica el uso de Linux y programas que se pueden utilizar día a día en nuestro trabajo.
Paula Taibo
Dende que comecei a usar software libre teño moito máis control sobre o meu ordenador e síntome máis cómoda usándoo. Tamén aprendín moito máis sobre como funciona e como adaptalo á miña forma de traballo.
Mércores, 13 Marzo 2024
Aplicacións libres orientadas a empresa – Notas con QOwnNotes
Nesta entrega analizaremos outra ferramenta, moi útil no traballo, como é a toma de notas en formato MarkDown. Con QOwnNotes poderemos facer esta labor de toma de notas e organización delas dunha forma sinxela e efectiva.
QOwnNotes é unha aplicación libre (con licenza GPL), multiplataforma (GNU/Linux, macOS e Windows) de toma de notas que conta con integración en Nextcloud/ownCloud (tamén pode traballar opcionalmente en conxunto coa aplicación de notas de Nextcloud e ownCloud), podendo sincronizar as notas entre diferentes dispositivos:
– Todas as notas almacénanse como ficheiros de texto plano en formato markdown no teu ordenador, podendo lelas e modificalas sen problema con diferentes ferramentas de uso común, ademais de coa propia aplicación de QOwnNotes.
– É unha aplicación nativa, optimizada para a velocidade e que require de pouco procesador e memoria, podendo empregala en dispositivos con poucos recursos de hardware.
– Altamente personalizable e programable, tes o control sobre como queres traballar coas túas notas, sen necesidade de usar formatos complexos ou propietarios.
– Conta cunha comunidade activa onde resolver as túas dúbidas.
Outras características interesantes
– Podes usar os teus ficheiros de texto ou Markdown existentes, sen necesidade dunha importación
– QOwnNotes está escrito en C++ e está optimizado para un baixo consumo de recursos (sen necesidade dunha aplicación Electron que consuma moita CPU e memoria)
– Pódese importar os datos directamente desde Evernote e Joplin
– Compatibilidade coa aplicación móbil e Nextcloud Textloud/ownCloud,
– Soporte para compartir notas no teu servidor ownCloud/Nextcloud
– Xestión de listas de tarefas en Nextcloud/ownCloud (Nextcloud tasks ou Tasks Plus/Calendar Plus) ou usar outro servidor CalDAV para sincronizar as túas tarefas
– Podes restaurar versións anteriores das túas notas do servidor ownCloud/Nextcloud
– As notas eliminadas poden ser restauradas do servidor ownCloud/Nextcloud
– Vixilancia de cambios externos en ficheiros de notas
– Soporte para etiquetas de notas jerárquicas e subcarpetas de notas
– Cifrado opcional de notas, con AES-256 integrado, ou podes usar métodos de cifrado personalizados como Keybase.io (encryption-keybase.qml) ou PGP (encryption-pgp.qml)
– Pódense usar múltiples carpetas de notas
– É posible buscar partes de palabras nas notas e os resultados de busca resáltanse nas notas
– Extensión do navegador para engadir notas desde o texto seleccionado, facer capturas de pantalla ou xestionar os teus marcadores
– Soporte para corrección ortográfica
– Modo portátil para levar QOwnNotes nunha memoria USB
– Soporte para scripts e un repositorio de scripts en liña onde podes instalar scripts dentro da aplicación
– Aplicación web para insertar fotos do teu teléfono móbil na nota actual en QOwnNotes no teu escritorio
– Compatibilidade con temas en modo escuro
– Os paneis pódense colocar onde desexes, mesmo poden flotar e son completamente encaixables
– Modo sen distracción, modo pantalla completa e modo máquina de escribir
– Números de liña
– As diferenzas entre a nota actual e a nota cambiada externamente amósanse nun diálogo
Empezamos coa publicación dunha serie de artigos sobre proxectos libres relacionados coa Intelixencia Articial. Neste primeiro artigo faremos un repaso aos Modelos de Linguaxe Grande, máis coñecidos como LLMs.
LLMs
Os LLMs, ou “Large Language Models” (Modelos de Linguaxe Grande), son sistemas de intelixencia artificial deseñados para entender, xerar e traballar con texto de maneira avanzada. Estos modelos son adestrados con enormes cantidades de datos textuais para aprender patróns de linguaxe, gramática, e incluso estilo e contexto.
A súa capacidade para procesar e xerar linguaxe fainos ferramentas poderosas para unha variedade de aplicacións, incluíndo tradución automática, xeración de texto, sumarización, e outros. Estos sistemas experimentaron un aumento da súa popularidade desde principios do ano 2023.
Os LLM libres, distínguense por ser desenvolvidos e distribuídos baixo licenzas que permiten a calquera acceder, modificar e compartir o código fonte. Isto ten varias implicacións importantes:
– Transparencia. Ao ser abertos, é posible revisar e entender como funcionan estes modelos, o que contribúe a un maior entendemento dos seus mecanismos e limitacións. – Personalización. Os usuarios poden adaptar os modelos ás súas necesidades específicas, mellorando ou modificando o seu comportamento segundo requiran os seus proxectos. – Comunidade e colaboración. Fomenta unha comunidade de desenvolvedores e usuarios que colaboran para mellorar o modelo, compartir solucións e crear novas aplicacións. – Accesibilidade. Ao estar dispoñibles de maneira gratuita, reducen as barreiras de entrada para individuos e organizacións que desexan explorar ou utilizar intelixencia artificial, democratizando o acceso a tecnoloxías avanzadas. – Ética e responsabilidade. A filosofía do software libre promove un debate aberto sobre o uso ético da intelixencia artificial, incluíndo a preocupación pola privacidade, o sesgo dos datos e o impacto social dos LLM.
Exemplos de LLMs libres
– GPT-Neo e GPT-NeoX. Desenvolvidos por EleutherAI, estes modelos son alternativas de código aberto ás versións comerciais de GPT (Generative Pre-trained Transformer) de OpenAI. GPT-Neo e GPT-NeoX están deseñados para ser escalables e accesibles, permitindo aos investigadores e desenvolvedores traballar con tecnoloxía punteira en procesamento de linguaxe natural (PLN) sen restricións de licenza. – GPT-J. Tamén unha iniciativa de EleutherAI, GPT-J é un modelo de linguaxe de gran escala que destaca pola súa capacidade de xeración de texto e comprensión. – Stable Diffusion. Aínda que é máis coñecido como un modelo de xeración de imaxes, Stable Diffusion tamén inclúe capacidades de procesamento de texto a través de CLIP, un modelo que pode entender e xerar descricións a partir de imaxes. É un proxecto de código aberto que fomenta a innovación en varios campos da IA. – Bloom: Desenvolvido por Hugging Face e BigScience, adestrado nun conxunto de datos masivo de texto e código. – LaMDA. Desenvolvido por Google AI, coñecido pola súa capacidade para xerar conversas fluídas e coherentes. – Megatron-Turing NLG. Desenvolvido por NVIDIA e Microsoft, adestrado nun conxunto de datos de texto e código con enfoque en tarefas de linguaxe natural. – WuDao 2.0. Desenvolvido pola Academia de Intelixencia Artificial de Beijing (BAAI), adestrado principalmente en chinés, pero tamén con capacidades en inglés. – BERT (Bidirectional Encoder Representations from Transformers) é un modelo desenvolvido por Google que foi pioneiro no uso de transformadores para entender o contexto das palabras nun texto de forma bidireccional. Aínda que o BERT orixinal non é un LLM no mesmo sentido que os modelos GPT, a súa arquitectura abriu o camiño para o desenvolvemento de moitos modelos derivados que son libres. – RoBERTa. Desenvolvido por Facebook AI, RoBERTa é unha optimización de BERT que mellora o seu rendemento mediante o axuste do proceso de adestramento e o aumento da cantidade de datos de adestramento. – XLNet. XLNet é outro modelo baseado en transformadores, desenvolvido por Google Brain e Carnegie Mellon University, que supera a BERT en varias tarefas de comprensión de texto. – OpenAI’s GPT-2. Aínda que OpenAI limitou inicialmente o acceso ao seu modelo GPT-3 debido a preocupacións sobre o seu potencial mal uso, a versión anterior, GPT-2, foi liberada completamente como código aberto. Isto permitiu a investigadores e desenvolvedores explorar e experimentar coas capacidades do modelo. – FairSeq. Desenvolvido por Facebook AI Research, FairSeq é unha biblioteca de aprendizaxe profunda para secuencia a secuencia (seq2seq) que inclúe implementacións de BART, RoBERTa, e outros modelos baseados en transformadores. Aínda que FairSeq en si mesmo é máis un marco de traballo que un modelo específico, proporciona as ferramentas necesarias para adestrar e despregar LLMs. – TensorFlow Model Garden. Aínda que TensorFlow en si mesmo é unha biblioteca de aprendizaxe automática de código aberto desenvolvida por Google, o Model Garden ofrece un conxunto de modelos pre-adestrados e implementacións que inclúen técnicas de última xeración. – AllenNLP. Desenvolvido polo Allen Institute for AI, AllenNLP é unha plataforma de código aberto deseñada para a investigación en PLN. Ofrece unha ampla gama de modelos pre-adestrados e ferramentas para facilitar a experimentación en comprensión de lectura, inferencia textual, e máis.
Estes modelos e ferramentas representan só unha mostra do amplo e crecente ecosistema de intelixencia artificial libre e de código aberto. A dispoñibilidade destes recursos permite a unha ampla gama de usuarios, dende investigadores ata entusiastas, explorar as fronteiras da tecnoloxía de IA e contribuír ao seu desenvolvemento de forma colaborativa.
Plataformas de acceso a LLMs
Para acceder a estes recursos dunha forma sinxela, pódese facer a través de plataformas en liña como:
– Hugging Face. Ofrece unha ampla gama de LLMs pre-adestrados, incluíndo algúns de código aberto como Bloom e LaMDA, con interfaces fáciles de usar para a súa implementación. – Google AI Platform. Proporciona acceso a algúns dos seus LLMs máis avanzados, como LaMDA e Meena. – DeepMind. Ofrece acceso a algúns dos seus LLMs de investigación, como Gopher e Gato.
Problemas dos LLMs
Ainda que esta tecnoloxía ten un gran potencial, hai que ter en conta que poden presentarse diferentes problemas co seu uso:
– Sesgos. Os LLMs poden herdar sesgos presentes nos datos de adestramento, o que pode xerar resultados discriminatorios ou inxustos. Por exemplo, se un LLM adestrase con un conxunto de datos que contén principalmente textos escritos por homes, é probable que xere resultados que favorezan aos homes. – Interpretabilidade. A complexidade dos LLMs dificulta a comprensión de como funcionan e por que xeran certos resultados. Isto pode dificultar a detección de erros ou sesgos no modelo, así como a confianza nas súas decisións. – Seguridade e ética. É importante utilizar os LLMs de forma responsable e ética para evitar o seu uso con fins maliciosos. Os LLMs poderían ser utilizados para xerar contido falso, propaganda ou para manipular ás persoas.
Evolución dos modelos
Ao longo dos últimos anos, estes modelos tiveron unha rápida evolución que podemos resumir nos seguintes puntos:
– Aumento do tamaño e a complexidade. Os LLMs experimentaron un crecemento exponencial no seu tamaño, con algúns modelos actuais que albergan miles de millóns de parámetros, o que lles permite procesar información con maior precisión e xerar resultados máis complexos. – Mellora na xeración de texto creativo. Os LLMs agora poden escribir poemas, historias, guións e mesmo código cun nivel de calidade comparable ao dun humano. – Desenvolvemento de novas aplicacións. Implementáronse LLMs en diversos campos como a educación, a atención sanitaria, o servizo ao cliente e o desenvolvemento de software, entre outros. No ámbito educativo, por exemplo, utilizanse LLMs para crear plataformas de aprendizaxe personalizadas que se adaptan ás necesidades de cada estudante.
En conclusión, nos últimos anos tiveron lugar grandes avances no campo dos LLMs. Estes modelos teñen o potencial de transformar a forma en que interactuamos coas computadoras e o mundo que nos rodea. Non obstante, aínda hai desafíos que abordar, como os sesgos, a interpretabilidade e a seguridade, para garantir un desenvolvemento e uso responsable desta tecnoloxía.
Pílula en vídeo do artigo
Xunta de Galicia, Información mantida e publicada na internet pola Xunta de Galicia
Este sitio web utiliza cookies para que poidamos ofrecerche a mellor experiencia de usuario posible.A información das cookies gárdase no teu navegador e realiza funcións como recoñecelo cando volves ao noso sitio web e axudar ao noso equipo a comprender que seccións do sitio web che resultan máis interesantes e útiles.
Cookies estrictamente necesarias
As cookies estrictamente necesarias deben estar activadas en todo momento para que poidamos gardar as súas preferencias para a configuración de cookies.
If you disable this cookie, we will not be able to save your preferences. This means that every time you visit this website you will need to enable or disable cookies again.
Cookies de terceiros
Este sitio web usa Google Analytics para recoller información anónima como o número de visitantes do sitio e as páxinas máis populares.
Please enable Strictly Necessary Cookies first so that we can save your preferences!