17.5 C
Madrid
viernes, octubre 24, 2025
spot_img
spot_img

Mis dos aplicaciones de IA favoritas en Linux, y cómo las uso para hacer más

Cuando AI llegó a la ámbito por primera vez en su forma coetáneo, estaba muerto en su contra conveniente a la naturaleza generativa de lo que se vendía al divulgado. Consideré cualquier trocha para crear arte para ser ofensivo para el oficio.

Pero luego me di cuenta de que podía usar IA para poco en lo que la búsqueda tradicional estaba empezando a resolver en: investigación.

Adicionalmente: Claude Ai puede investigar y manejar sus correos electrónicos ahora, así es como

Con entreambos lados de mi carrera de escritor (ficción y no ficción), tengo que investigar sobrado, y Google se estaba convirtiendo en un obstáculo para ese proceso. En empleo de ser alimentado con información útil, me inundaron con anuncios, contenido patrocinado y sus propias respuestas basadas en IA (que rara vez fueron enseres).

Primero pateé los neumáticos con Romanza de Opera, que me mostró que AI podría ser útil. Al mismo tiempo, me di cuenta de que AI además tenía que ser supervisada porque podría estar equivocada tan fácilmente como podría ser correcto.

Igualmente encontré otra cosa útil sobre la IA en que podría llevarme algunos divertidos hoyos de conejo, donde podría descubrir poco en realidad ingenioso para investigar. En última instancia, ese alucinación me llevó a dos herramientas de IA, las cuales podrían instalarse y estilarse en Linux de forma gratuita.

Esas dos herramientas me han ayudado a hacer más a diario.

1. Ollama/venganza

Ollama es una aparejo de IA de código hendido. Su naturaleza de código hendido es una de las principales razones por las que me atrajeron porque sé que los desarrolladores de todo el mundo pueden examinar su código, y hasta la aniversario, nadie ha aparecido a proponer que han descubierto poco desagradable en el código.

LEER  Todo se reveló en Google I/O 2025: Gafas inteligentes, Géminis, búsqueda, más

Adicionalmente de la naturaleza de código hendido de Ollama, es viable de instalar y usar. Y el hecho de que pueda descargar y usar varios LLM diferentes es un poco de glaseado delicioso en un pastel ya dulce. Puedo usar Cogito, Gemma 3, Deepseek R1, Lumbre 3.3, Lumbre 3.2, Phi 4, QWQ y muchos más.

Igualmente: cómo alimento mis archivos a una IA tópico para respuestas mejor y más relevantes

Pero la razón principal por la que prefiero Ollama sobre cualquier otra aparejo de IA es que se puede usar localmente, lo que significa que mis consultas no son accesibles por un tercero. Me gusta ese nivel de privacidad.

Pero, ¿cómo me ayuda Ollama a hacer las cosas? Primero, está la biblioteca de indicaciones, que le brinda golpe a varias indicaciones rápidas e incluso le permite crear indicaciones personalizadas. Un mensaje que a menudo escribo es «hacer una inmersión profunda en el ulterior tema y asegúrese de explorar cualquier tema paralelo relevante:». En empleo de tener que tener que escribir ese aviso, puedo crear un aviso rápido para ello, por lo que todo lo que tengo que escribir es el tema. Adicionalmente de eso, no tengo que memorar pedir a Ollama a explorar temas relevantes.

Igualmente: cómo ejecutar Deepseek Ai localmente para proteger su privacidad – 2 maneras fáciles

Creo ese indicador rápido interiormente de la biblioteca para que pueda llamarlo fácilmente cuando lo necesite. Esto me ahorra tiempo y asegura que siempre obtenga el aviso correcto cada vez. No tengo que pensar en lo que el mensaje necesita proponer, y puedo hacer que el aviso sea tan viable o complicado como necesito.

LEER  Google está matando una característica definitoria para los teléfonos Android pronto, y hay una razón por la cual

La biblioteca de indicaciones es muy útil, especialmente cuando tengo indicaciones más complejas que escribo regularmente.

Adicionalmente: probé la aplicación de IA tópico de Sanctum, y es exactamente lo que necesitaba para apoyar mis datos privados

A continuación, están las pilas de conocimiento, que me permiten pegar documentos propios (que siempre permanecen locales) para que el LLM que haya predilecto pueda usar esa información como fuente. Digamos que he escrito varios artículos sobre un solo tema y quiero usar su información combinada para reponer algunas preguntas. Podría retornar y deletrear todo en esa serie, o podría agregarlo a una pila de conocimiento y luego hacer mis preguntas. Ollama buscará en cada documento anexo a la pila y usará esa información para su respuesta.

Es en realidad útil.

2. Perplejidad

Igualmente hay una aplicación de escritorio adecuado para perplejidad. La aplicación de escritorio es más o menos la misma que usar perplejidad.

Hay dos características principales que me ayudan con mis tareas diarias: búsqueda e investigación.

Adicionalmente: cómo hice perplejidad ai el motor de búsqueda predeterminado en mi navegador (y por qué tú además deberías)

Si quiero hacer una búsqueda estereotipado con perplejidad, hago clic en el clavija de búsqueda, escribo mi consulta y presiono ENTER en mi teclado. Si, por otro banda, necesito una inmersión más profunda en un tema, presiono la investigación y escribo mi consulta.

Una cosa que debe aprender sobre la opción de investigación es que en realidad hace una inmersión profunda y puede tardar hasta 30 minutos para entregar sus resultados. Pero cuando necesitas entrar en realidad en un tema, esa característica es imprescindible. Lo bueno de la investigación es que puede hacer clic en tareas, y aunque hace lo suyo, muestra las fuentes utilizadas para la inmersión profunda.

LEER  Los mejores servicios de alojamiento de VPS para 2025: experto probado

Una cosa a tener en cuenta con la investigación es que la interpretación gratuita lo limita a la cantidad de consultas que puede ejecutar por día. Puede renovar al plan profesional para búsquedas gratuitas ilimitadas y más de 300 búsquedas profesionales por día. El plan profesional es de $ 20 por mes.

Otra característica muy útil en perplejidad son los espacios. Con esta función, puedo crear espacios personalizados para diferentes temas. Luego puedo cambiar espacios, ejecutar una consulta y aprender que la consulta se aislará a ese espacio, lo que significa que cuando quiero memorar esa consulta, solo tengo que cambiar al espacio y encontrarla. Eso hace que sea mucho más viable realizar un seguimiento de las consultas anteriores sin tener que recorrer una repertorio larga.

Adicionalmente: probé el asistente de Perplexity, y solo una cosa evita que sea mi teléfono predeterminado ai

Entre esas dos herramientas de IA en mi escritorio de Linux, puedo hacer mucho más a diario. Le recomiendo que pruebe uno (o entreambos) de estos.

Obtenga las principales historias de la mañana en su bandeja de entrada cada día con nuestro Boletín de Tech Today.

spot_img

Artículos relacionados

spot_img

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

Últimos artículos