1
0
mirror of https://github.com/privacyguides/i18n.git synced 2025-08-04 15:11:03 +00:00
Files
i18n/i18n/pt-BR/ai-chat.md
2025-03-10 11:32:10 +00:00

15 KiB

meta_title, title, icon, description, cover
meta_title title icon description cover
Agentes de IA recomendados: Alternativas ao ChatGPT que protegem sua privacidade - Guia de Privacidade Agente de IA material/assistant Diferente do ChatGPT da empresa OpenAI e seus concorrentes, as ferramentas aqui sugeridas são executadas localmente com a finalidade de não fornecer ou dificultar a coleta de dados em seu Desktop ai-chatbots.webp

Protege contra as seguintes ameaças:

Desde seu lançamento em 2022, o ChatGPT engajou popularmente e tornou as interações com grandes modelos de linguagem (LLMs)cada vez mais comuns. Os LLMs podem nos ajudar a escrever melhor, entender sobre assuntos desconhecidos ou responder a uma ampla gama de perguntas, ou até mesmo prever a próxima palavra digitada baseados num grande banco de dados extraído da internet.

Preocupações em relação aos LLMs

Os dados usados para treinar modelos de IA, no entanto, incluem uma enorme quantidade de dados disponíveis publicamente extraídos da Web, que eventualmente podem incluir informações confidenciais, como nomes e endereços. O software de IA baseado em nuvem geralmente [coleta suas entradas] (https://openai.com/policies/row-privacy-policy), o que significa que suas mensagens não são privados. Essa prática leva à um risco maior de vazamentos de dados. Além disso, existe a possibilidade real de um LLM vazar informações privadas de mensagens e informações coletadas em conversas futuras com outros usuários.

Se estiver preocupado com essas práticas, você pode se recusar a usar IA ou usar [modelos verdadeiramente de código aberto] (https://proton.me/blog/how-to-build-privacy-first-ai)Estes são lançados publicamente e permitem que você cheque e inspecione os conjuntos de dados de treinamento. Uma dessas alternativas de modelos é o OLMoE criado pela Ai2.

Como alternativa, você pode executar modelos de IA localmente e seus dados nunca sairão do seu dispositivo, evitando assim que os mesmos sejam compartilhados com terceiros. Dessa forma, os modelos locais são uma alternativa privada e segura às soluções baseadas em nuvem. Além de permitir que você compartilhe informações pessoais com o modelo de IA sem preocupações.

Modelos de IA

Especificações de Hardware para Modelos de IA de funcionamento local

Os modelos locais também são bastante acessíveis. É possível executar modelos menores em velocidades mais baixas com apenas 8 GB de RAM. O uso de hardware mais avançado como uma placa de vídeo dedicada com VRAM suficiente ou um sistema moderno com memória LPDDR5X rápida oferecerá uma melhor experiência.

LLMs can usually be differentiated by the number of parameters, which can vary between 1.3B to 405B for open-source models available for end users. Por exemplo, modelos com parâmetros abaixo de 6,7B são bons apenas para tarefas básicas, como resumos de texto. Já modelos entre 7B e 13B são um ótimo compromisso entre qualidade e velocidade. Os modelos com recursos avançados de raciocínio geralmente ficam em torno de 70B.

Para computadores pessoais pessoais, geralmente recomenda-se usar [modelos quantizados] (https://huggingface.co/docs/optimum/en/concept_guides/quantization) para obter o melhor equilíbrio entre a qualidade e o desempenho do modelo. Consulte a tabela abaixo para obter mais informações sobre os requisitos ideais para diferentes tamanhos de modelos.

Tamanho do modelo (em parâmetros) RAM mínima Processador Mínimo
7B 8 GB CPU moderna (suporte a AVX2)
13B 16 GB CPU moderna (suporte a AVX2)
70B 72 GB GPU com VRAM

Para executar a IA localmente é necessário um modelo de IA e um cliente de IA.

Escolhendo um Modelo

Há muitos modelos de código aberto ou de licença livre disponíveis para download. A Hugging Face é uma plataforma que permite que você navegue, pesquise e faça download de modelos em formatos comuns, como GGUF. Empresas que fornecem bons modelos de direitos facilitados incluem grandes nomes como Mistral, Meta, Microsoft e Google. No entanto, também há muitos modelos comunitários e "ajustes" disponíveis. Conforme mencionado acima: modelos quantizados oferecem o melhor equilíbrio entre a qualidade e o desempenho do modelo para aqueles que usam um computador pessoal (equipamento de nível de consumidor).

To help you choose a model that fits your needs, you can look at leaderboards and benchmarks. The most widely-used leaderboard is the community-driven LM Arena. Additionally, the OpenLLM Leaderboard focuses on the performance of open-weights models on common benchmarks like MMLU-Pro. There are also specialized benchmarks which measure factors like emotional intelligence, "uncensored general intelligence", and many others.

AI Chat Clients

Feature Kobold.cpp Ollama Llamafile
GPU Support :material-check:{ .pg-green } :material-check:{ .pg-green } :material-check:{ .pg-green }
Image Generation :material-check:{ .pg-green } :material-close:{ .pg-red } :material-close:{ .pg-red }
Speech Recognition :material-check:{ .pg-green } :material-close:{ .pg-red } :material-close:{ .pg-red }
Auto-download Models :material-close:{ .pg-red } :material-check:{ .pg-green } :material-alert-outline:{ .pg-orange } Few models available
Custom Parameters :material-check:{ .pg-green } :material-close:{ .pg-red } :material-check:{ .pg-green }
Aplicativos multiplataforma :material-check:{ .pg-green } :material-check:{ .pg-green } :material-alert-outline:{ .pg-orange } Size limitations on Windows

Kobold.cpp

Kobold.cpp Logo{align=right}

Kobold.cpp is an AI client that runs locally on your Windows, Mac, or Linux computer. It's an excellent choice if you are looking for heavy customization and tweaking, such as for role-playing purposes.

In addition to supporting a large range of text models, Kobold.cpp also supports image generators such as Stable Diffusion and automatic speech recognition tools such as Whisper.

:octicons-home-16: Homepage{ .md-button .md-button--primary } :octicons-info-16:{ .card-link title="Documentation" } :octicons-code-16:{ .card-link title="Source Code" } :octicons-lock-16:{ .card-link title="Security Policy" }

Downloads

Compatibility Issues

Kobold.cpp might not run on computers without AVX/AVX2 support.

Kobold.cpp allows you to modify parameters such as the AI model temperature and the AI chat's system prompt. It also supports creating a network tunnel to access AI models from other devices such as your phone.

Ollama (CLI)

Ollama Logo{align=right}

Ollama is a command-line AI assistant that is available on macOS, Linux, and Windows. Ollama is a great choice if you're looking for an AI client that's easy-to-use, widely compatible, and fast due to its use of inference and other techniques. It also doesn't involve any manual setup.

In addition to supporting a wide range of text models, Ollama also supports LLaVA models and has experimental support for Meta's Llama vision capabilities.

:octicons-home-16: Homepage{ .md-button .md-button--primary } :octicons-info-16:{ .card-link title="Documentation" } :octicons-code-16:{ .card-link title="Source Code" } :octicons-lock-16:{ .card-link title="Security Policy" }

Downloads

Ollama simplifies the process of setting up a local AI chat by downloading the AI model you want to use automatically. For example, running ollama run llama3.2 will automatically download and run the Llama 3.2 model. Furthermore, Ollama maintains their own model library where they host the files of various AI models. This ensures that models are vetted for both performance and security, eliminating the need to manually verify model authenticity.

Llamafile

Llamafile Logo{align=right}

Llamafile is a lightweight single-file executable that allows users to run LLMs locally on their own computers without any setup involved. It is backed by Mozilla and available on Linux, macOS, and Windows.

Llamafile also supports LLaVA. However, it doesn't support speech recognition or image generation.

:octicons-home-16: Homepage{ .md-button .md-button--primary } :octicons-info-16:{ .card-link title="Documentation" } :octicons-code-16:{ .card-link title="Source Code" } :octicons-lock-16:{ .card-link title="Security Policy" }

Downloads

Mozilla has made llamafiles available for only some Llama and Mistral models, while there are few third-party llamafiles available. Moreover, Windows limits .exe files to 4 GB, and most models are larger than that.

To circumvent these issues, you can load external weights.

Securely Downloading Models

If you use an AI client that maintains their own library of model files (such as Ollama and Llamafile), you should download it from there. However, if you want to download models not present in their library, or use an AI client that doesn't maintain its library (such as Kobold.cpp), you will need to take extra steps to ensure that the AI model you download is safe and legitimate.

We recommend downloading model files from Hugging Face since it provides several features to verify that your download is genuine and safe to use.

To check the authenticity and safety of the model, look for:

  • Model cards with clear documentation
  • A verified organization badge
  • Community reviews and usage statistics
  • A "Safe" badge next to the model file (Hugging Face only)
  • Matching checksums1
    • On Hugging Face, you can find the hash by clicking on a model file and looking for the Copy SHA256 button below it. You should compare this checksum with the one from the model file you downloaded.

A downloaded model is generally safe if it satisfies all the above checks.

Criteria

Please note we are not affiliated with any of the projects we recommend. In addition to our standard criteria, we have developed a clear set of requirements to allow us to provide objective recommendations. We suggest you familiarize yourself with this list before choosing to use a project and conduct your own research to ensure it's the right choice for you.

Minimum Requirements

  • Must be open-source.
  • Must not transmit personal data, including chat data.
  • Must be multi-platform.
  • Must not require a GPU.
  • Must support GPU-powered fast inference.
  • Must not require an internet connection.

Melhor Caso

Our best-case criteria represent what we would like to see from the perfect project in this category. Our recommendations may not include any or all of this functionality, but those which do may rank higher than others on this page.

  • Should be easy to download and set up, e.g. with a one-click installation process.
  • Should have a built-in model downloader option.
  • The user should be able to modify the LLM parameters, such as its system prompt or temperature.

  1. A file checksum is a type of anti-tampering fingerprint. A developer usually provides a checksum in a text file that can be downloaded separately, or on the download page itself. Verifying that the checksum of the file you downloaded matches the one provided by the developer helps ensure that the file is genuine and wasn't tampered with in transit. You can use commands like sha256sum on Linux and macOS, or certutil -hashfile file SHA256 on Windows to generate the downloaded file's checksum. ↩︎