diff --git a/i18n/pl/about.md b/i18n/pl/about.md index 09e0a5a0..f3511c9f 100644 --- a/i18n/pl/about.md +++ b/i18n/pl/about.md @@ -21,7 +21,7 @@ schema: **Privacy Guides** to serwis o charakterze społecznym, który dostarcza informacji o ochronie prywatności i bezpieczeństwa danych. Jesteśmy projektem non-profit, którego misją jest informowanie społeczeństwa o wartości prywatności cyfrowej oraz o globalnych inicjatywach rządowych mających na celu monitorowanie Twojej aktywności w sieci. Nasza strona jest całkowicie wolna od reklam i nie jest powiązana z żadnym z prezentowanych dostawców. [:material-heart:{.pg-red} Dołącz do nas](https://donate.magicgrants.org/privacyguides){ .md-button .md-button--primary data-portal="signup" } -[:octicons-home-16:](https://www.privacyguides.org){ .card-link title=Strona główna } +[:octicons-home-16:](https://www.privacyguides.org){ .card-link title="Strona główna" } [:octicons-code-16:](https://github.com/privacyguides/privacyguides.org){ .card-link title="Kod źródłowy" } Privacy Guides jest tworzony przez wolontariuszy i członków zespołu z całego świata. Wszystkie zmiany w naszych zaleceniach i zasobach są weryfikowane przez co najmniej dwie [zaufane](https://discuss.privacyguides.net/u?group=team&order=solutions&period=all) osoby, a także dokładamy starań, aby nasze treści były aktualizowane możliwie szybko, tak by nadążać za nieustannie zmieniającym się krajobrazem zagrożeń w cyberbezpieczeństwie. diff --git a/i18n/pl/ai-chat.md b/i18n/pl/ai-chat.md index 1f4579b4..cfd327f3 100644 --- a/i18n/pl/ai-chat.md +++ b/i18n/pl/ai-chat.md @@ -38,39 +38,39 @@ Dla sprzętu konsumenckiego zwykle zaleca się używanie [modeli kwantyzowanych] | 13 mld | 16 GB | Nowoczesny procesor (z obsługą AVX2) | | 70 mld | 72 GB | Karta graficzna z pamięcią VRAM | -To run AI locally, you need both an AI model and an AI client. +Aby uruchomić sztuczną inteligencję lokalnie, potrzebujesz zarówno modelu sztucznej inteligencji, jak i klienta sztucznej inteligencji. -### Choosing a Model +### Wybór modelu -There are many permissively licensed models available to download. [Hugging Face](https://huggingface.co/models) is a platform that lets you browse, research, and download models in common formats like [GGUF](https://huggingface.co/docs/hub/en/gguf). Companies that provide good open-weights models include big names like Mistral, Meta, Microsoft, and Google. However, there are also many community models and [fine-tuned](https://en.wikipedia.org/wiki/Fine-tuning_\(deep_learning\)) models available. As mentioned above, quantized models offer the best balance between model quality and performance for those using consumer-grade hardware. +Dostępnych jest wiele modeli na licencjach pozwalających na swobodne użycie. Platformą, która umożliwia przeglądanie, badanie i pobieranie modeli w popularnych formatach (np. [GGUF](https://huggingface.co/docs/hub/en/gguf)), jest [Hugging Face](https://huggingface.co/models). Firmy udostępniające dobre modele z otwartymi wagami to m.in. Mistral, Meta, Microsoft i Google. Jednak istnieje też wiele modeli tworzonych przez społeczność oraz modeli [dostrojonych](https://en.wikipedia.org/wiki/Fine-tuning_\(deep_learning\)). Jak wspomniano wcześniej, modele kwantyzowane zwykle oferują najlepszy kompromis jakości i wydajności dla sprzętu konsumenckiego. -To help you choose a model that fits your needs, you can look at leaderboards and benchmarks. The most widely-used leaderboard is the community-driven [LM Arena](https://lmarena.ai). Additionally, the [OpenLLM Leaderboard](https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard) focuses on the performance of open-weights models on common benchmarks like [MMLU-Pro](https://arxiv.org/abs/2406.01574). There are also specialized benchmarks which measure factors like [emotional intelligence](https://eqbench.com), ["uncensored general intelligence"](https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard), and [many others](https://nebuly.com/blog/llm-leaderboards). +Aby wybrać model odpowiedni dla Twoich potrzeb, warto śledzić rankingi i benchmarki. Najbardziej popularnym rankingiem społecznościowym jest [LM Arena](https://lmarena.ai). Z kolei [OpenLLM Leaderboard](https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard) koncentruje się na wydajności modeli z otwartymi wagami w standardowych benchmarkach, takich jak [MMLU-Pro](https://arxiv.org/abs/2406.01574). Istnieją też wyspecjalizowane benchmarki mierzące np. [inteligencję emocjonalną](https://eqbench.com), [„nieocenzurowaną ogólną inteligencję”](https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard) oraz [wiele innych](https://nebuly.com/blog/llm-leaderboards). -## AI Chat Clients +## Klienci czatu AI -| Feature | [Kobold.cpp](#koboldcpp) | [Ollama](#ollama-cli) | [Llamafile](#llamafile) | -| -------------------- | ----------------------------------------------------------------------------- | ----------------------------------------------------------------------------- | ------------------------------------------------------------------------------------------------------------------ | -| GPU Support | :material-check:{ .pg-green } | :material-check:{ .pg-green } | :material-check:{ .pg-green } | -| Image Generation | :material-check:{ .pg-green } | :material-close:{ .pg-red } | :material-close:{ .pg-red } | -| Speech Recognition | :material-check:{ .pg-green } | :material-close:{ .pg-red } | :material-close:{ .pg-red } | -| Auto-download Models | :material-close:{ .pg-red } | :material-check:{ .pg-green } | :material-alert-outline:{ .pg-orange } Few models available | -| Custom Parameters | :material-check:{ .pg-green } | :material-close:{ .pg-red } | :material-check:{ .pg-green } | -| Międzyplatformowe | :material-check:{ .pg-green } | :material-check:{ .pg-green } | :material-alert-outline:{ .pg-orange } Size limitations on Windows | +| Cecha/funkcja | [Kobold.cpp](#koboldcpp) | [Ollama](#ollama-cli) | [Llamafile](#llamafile) | +| ------------------------------ | ----------------------------------------------------------------------------- | ----------------------------------------------------------------------------- | ------------------------------------------------------------------------------------------------------------------------------- | +| Obsługa GPU | :material-check:{ .pg-green } | :material-check:{ .pg-green } | :material-check:{ .pg-green } | +| Generowanie obrazów | :material-check:{ .pg-green } | :material-close:{ .pg-red } | :material-close:{ .pg-red } | +| Rozpoznawanie mowy | :material-check:{ .pg-green } | :material-close:{ .pg-red } | :material-close:{ .pg-red } | +| Automatyczne pobieranie modeli | :material-close:{ .pg-red } | :material-check:{ .pg-green } | :material-alert-outline:{ .pg-orange } Kilka dostępnych modeli | +| Niestandardowe parametry | :material-check:{ .pg-green } | :material-close:{ .pg-red } | :material-check:{ .pg-green } | +| Wieloplatformowość | :material-check:{ .pg-green } | :material-check:{ .pg-green } | :material-alert-outline:{ .pg-orange } Ograniczenia rozmiaru w systemie Windows | ### Kobold.cpp
Compatibility Issues
+Problemy z kompatybilnością
-Kobold.cpp might not run on computers without AVX/AVX2 support. +Kobold.cpp może nie działać na komputerach bez obsługi AVX/AVX2.