SerProyectos de artículos

Artículos preliminares
Anonymous
 Ser

Post by Anonymous »



'''Ollama''' es una empresa estadounidense de software libre con sede en Palo Alto, California, que proporciona un entorno de ejecución para ejecutar grandes modelos de lenguaje (LLM) localmente.
== Historia ==
Ollama fue fundada por los desarrolladores de software Jeffrey Morgan y Michael Chiang.
Ollama fue creado con el objetivo de simplificar la configuración y operación de los LLM locales. Las publicaciones y artículos de blogs a menudo comparan el software con Docker porque los modelos se pueden descargar e iniciar de manera similar a los contenedores.

== Programa ==
=== Arquitectura y Licencia ===
El núcleo de Ollama consiste en un entorno de ejecución para modelos de lenguaje, gestión de modelos y un servidor HTTP local a través del cual las aplicaciones pueden acceder a los modelos a través de REST API.
El software proporciona su propio formato de modelo y los llamados “''archivos de modelo''” en los que se pueden especificar referencias a modelos y configuraciones básicos como cuantificación, longitud de contexto o indicaciones del sistema.
=== Plataformas e instalación ===
Ollama está disponible para macOS, Linux y Windows.

== Funciones ==
=== Ejecución local de modelos de lenguaje ===
Ollama permite la ejecución de varios modelos de lenguaje abierto localmente en la CPU o, según el hardware y la plataforma, con aceleración de GPU.

ollama ejecuta llama3.2 "Mensaje de ejemplo"


El medio ambiente favorece, entre otras cosas:
* Administrar y actualizar múltiples modelos,
* Configurar ventana de contexto, indicaciones del sistema y cuantificación,
* Salida de streaming y solicitudes paralelas.
=== API y bibliotecas ===
Además de la interfaz de línea de comandos, Ollama proporciona una API HTTP local a través de la cual las aplicaciones pueden solicitar modelos.
El software se puede combinar con varias interfaces gráficas y herramientas, como interfaces de usuario web independientes, extensiones de navegador o integraciones en entornos de desarrollo.
== Modelos compatibles ==
Ollama se centra en LLM abiertos y proporciona definiciones de modelos preconfigurados para una variedad de proyectos. Estos incluyen, entre otros:

* Metamodelos de la serie Llama,
* DeepSeek-R1,
* Modelos Gemma,
* Modelos de código como Code Llama,
* modelos más pequeños y específicos de dominio.
Muchos modelos vienen en diferentes tamaños y niveles de cuantificación para permitirles ejecutarse en diferentes configuraciones de hardware, desde computadoras portátiles hasta estaciones de trabajo con GPU de gran tamaño.
== Uso ==
Ollama es utilizado particularmente por desarrolladores y científicos de datos que desean ejecutar modelos de lenguaje localmente para evitar costos de API o cumplir con los requisitos de protección de datos.
* asistentes de chat locales,
* Integración en IDE y flujos de trabajo de desarrollo,
* Recuperación de Generación Aumentada (RAG) para documentos y repositorios de códigos,
* Creación de prototipos de funciones de IA en aplicaciones,
* Procesamiento de datos confidenciales dentro de su propia infraestructura.
Los blogs y foros a menudo describen a Ollama como "Docker para LLM" porque los modelos, similares a los contenedores, se pueden descargar, iniciar e integrar en otras herramientas con solo unos pocos comandos.
== Recepción ==
Los blogs técnicos, tutoriales y foros de discusión describen a Ollama como una solución comparativamente liviana y fácil de usar para los desarrolladores para la inferencia LLM local.
En comparación con soluciones alternativas como LM Studio, Ollama es en parte elogiado por su facilidad de uso e integración, al tiempo que señala las limitaciones en el soporte de GPU en Windows.
* [https://ollama.com Sitio web oficial de Ollama]
* [https://github.com/ollama/ollama Página del proyecto Ollama en GitHub]
* [https://docs.ollama.com Documentación oficial]

More details: https://de.wikipedia.org/wiki/Ollama

Quick Reply

Change Text Case: 
   
  • Similar Topics
    Replies
    Views
    Last post