Formas creativas de utilizar LLM en tu laptop


Formas creativas de utilizar LLM en tu laptopFormas creativas de utilizar LLM en tu laptop
Imagen por autor

Acceder a ChatGPT en línea es muy sencillo: solo necesitas una conexión a Internet y un buen navegador. No obstante, al hacerlo, podrías poner en riesgo tu privacidad y datos. OpenAI guarda tus respuestas rápidas y otros metadatos para volver a entrenar los modelos. Aunque esto puede no preocupar a algunos, aquellos que valoran la privacidad podrían preferir usar estos modelos de forma local, sin rastreo externo.

En esta entrada, exploraremos cinco maneras de utilizar modelos de lenguaje grandes (LLM) de manera local. La mayoría de los programas son compatibles con los principales sistemas operativos y se pueden descargar e instalar fácilmente para su uso inmediato. Al emplear LLM en tu laptop, tienes la libertad de elegir tu propio modelo. Solo necesitas descargar el modelo desde el centro de HuggingFace y empezar a utilizarlo. Además, puedes conceder acceso a estas aplicaciones a la carpeta de tu proyecto y generar respuestas contextualizadas.

GPT4Todos es un avanzado software de código abierto que facilita a los usuarios la descarga e instalación de modelos de última generación de forma sencilla.

Simplemente descarga GPT4ALL desde su sitio web e instálalo en tu sistema. Luego, selecciona el modelo que se ajuste a tus necesidades desde el panel y comienza a utilizarlo. Si tienes CUDA (GPU de Nvidia), GPT4ALL utilizará automáticamente tu GPU para generar respuestas rápidas de hasta 30 tokens por segundo.

Formas creativas de utilizar LLM en tu laptopFormas creativas de utilizar LLM en tu laptop

Puedes otorgar acceso a diversas carpetas que contienen códigos y documentos importantes, y GPT4ALL generará respuestas mediante recuperación-generación ampliada. GPT4ALL es fácil de usar, rápido y popular entre la comunidad de IA.

Lee el blog sobre GPT4ALL para descubrir más sobre sus funciones y casos de uso: El ecosistema definitivo de modelos de lenguaje grandes de código abierto.

LM Studio es una nueva herramienta que ofrece diversas ventajas sobre GPT4ALL. Su interfaz de usuario es excelente y puedes instalar cualquier modelo desde Hugging Face Hub con solo unos clics. Además, proporciona descarga para GPU y otras opciones no disponibles en GPT4ALL. No obstante, LM Studio es un software propietario y no permite generar respuestas contextualizadas leyendo archivos de proyecto.

Formas creativas de utilizar LLM en tu laptopFormas creativas de utilizar LLM en tu laptop

LM Studio brinda acceso a miles de LLM de código abierto, permitiéndote iniciar un servidor de inferencia local que imita la API de OpenAI. Puedes modificar la respuesta de tu LLM a través de la interfaz de usuario interactiva con múltiples opciones.

Además, lee Cómo ejecutar un LLM localmente con LM Studio para obtener más información sobre LM Studio y sus características clave.

Ollama es una herramienta de interfaz de línea de comandos (CLI) que facilita la operación ágil de modelos de lenguaje grandes como Llama 2, Mistral y Gemma. Si eres un hacker o desarrollador, esta herramienta CLI es una excelente opción. Puedes descargar e instalar el software y utilizar el comando `the llama run llama2` para empezar a usar el modelo LLaMA 2. Encuentra otros comandos de modelo en el repositorio de GitHub.

Formas creativas de utilizar LLM en tu laptopFormas creativas de utilizar LLM en tu laptop

También te permite iniciar un servidor HTTP local que se puede integrar con otras aplicaciones. Por ejemplo, puedes utilizar la extensión Code GPT VSCode proporcionando la dirección del servidor local y empezar a usarlo como asistente de codificación de IA.

Mejora tu flujo de trabajo de codificación y datos con estos Los mejores 5 asistentes de codificación de IA.

LLaMA.cpp es una herramienta que ofrece tanto una CLI como una interfaz gráfica de usuario (GUI). Te permite utilizar cualquier LLM de código abierto localmente sin complicaciones. Esta herramienta es altamente personalizable y ofrece respuestas rápidas a cualquier consulta, ya que está totalmente escrita en C/C++ puro.

Formas creativas de utilizar LLM en tu laptopFormas creativas de utilizar LLM en tu laptop

LLaMA.cpp es compatible con todo tipo de sistemas operativos, CPU y GPU. También puedes emplear modelos multimodales como LLaVA, BakLLaVA, Obsidian y ShareGPT4V.

Aprende cómo Ejecutar Mixtral 8x7b en Google Colab gratis usando LLaMA.cpp y la GPU de Google.

Para utilizar Chat de NVIDIA con RTX, debes descargar e instalar la aplicación Windows 11 en tu laptop. Esta aplicación es compatible con portátiles que dispongan de una tarjeta gráfica NVIDIA RTX de la serie 30 o 40 con al menos 8 GB de RAM y 50 GB de espacio de almacenamiento libre. Además, tu laptop debe tener al menos 16 GB de RAM para ejecutar Chat con RTX sin problemas.

Formas creativas de utilizar LLM en tu laptopFormas creativas de utilizar LLM en tu laptop

Con Chat with RTX, puedes ejecutar los modelos LLaMA y Mistral de forma local en tu laptop. Es una aplicación ágil y eficiente que incluso puede aprender de los documentos que proporciones o de videos de YouTube. Sin embargo, es importante tener en cuenta que Chat with RTX se basa en TensorRTX-LLM, el cual solo es compatible con GPU de la serie 30 o posteriores.

Si deseas aprovechar los últimos LLM y mantener tus datos seguros y privados, puedes utilizar herramientas como GPT4All, LM Studio, Ollama, LLaMA.cpp o NVIDIA Chat con RTX. Cada herramienta posee sus propias fortalezas únicas, ya sea una interfaz amigable, la accesibilidad a la línea de comandos o el soporte para modelos multimodales. Con la configuración adecuada, puedes obtener un potente asistente de inteligencia artificial que genera respuestas personalizadas basadas en el contexto.

Se recomienda comenzar con GPT4All y LM Studio, ya que abarcan la mayoría de las necesidades fundamentales. Después, puedes probar Ollama y LLaMA.cpp, y finalmente experimentar con Chat con RTX.

Abid Ali Awan (@1abidaliawan) es un científico de datos profesional certificado que disfruta creando modelos de aprendizaje automático. Actualmente, se enfoca en la creación de contenido y redacción de blogs técnicos sobre tecnologías de ciencia de datos y aprendizaje automático. Abid posee una Maestría en Gestión de Tecnología y una Licenciatura en Ingeniería de Telecomunicaciones. Su visión es desarrollar un producto de inteligencia artificial utilizando una red neuronal gráfica para ayudar a estudiantes que enfrentan problemas de salud mental.

¿Nos apoyarás hoy?

Creemos que todos merecen entender el mundo en el que viven. Este conocimiento ayuda a crear mejores ciudadanos, vecinos, amigos y custodios de nuestro planeta. Producir periodismo explicativo y profundamente investigado requiere recursos. Puedes apoyar esta misión haciendo una donación económica a Gelipsis hoy. ¿Te sumarás a nosotros?

Suscríbete para recibir nuestro boletín:

Recent Articles

Related Stories

DEJA UN COMENTARIO

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí