diff --git a/i18n/zh-TW/about.md b/i18n/zh-TW/about.md
index 3618ff5d..6bbf21b0 100644
--- a/i18n/zh-TW/about.md
+++ b/i18n/zh-TW/about.md
@@ -189,9 +189,9 @@ Privacy Guides 是由世界各地的志工和工作人員建立的。 我們對
-To reiterate, this is not an endorsement of any platform, and we generally discourage following us on most social media platforms.
+再度重申,這並非對任何平台的認可,而且我們通常不鼓勵在大多數的社群媒體平台上追蹤我們。
-## :material-newspaper: In The Media
+## :material-newspaper: 媒體報導
> To find [privacy-focused alternative] apps, check out sites like Good Reports and **Privacy Guides**, which list privacy-focused apps in a variety of categories, notably including email providers (usually on paid plans) that aren’t run by the big tech companies.
@@ -201,9 +201,9 @@ To reiterate, this is not an endorsement of any platform, and we generally disco
— [Tweakers.net](https://tweakers.net/reviews/10568/op-zoek-naar-privacyvriendelijke-tools-niek-de-wilde-van-privacy-guides.html) [翻譯自荷蘭文]
-Also featured on: [Ars Technica](https://arstechnica.com/gadgets/2022/02/is-firefox-ok), [Wirecutter](https://nytimes.com/wirecutter/guides/practical-guide-to-securing-windows-pc) [[2](https://nytimes.com/wirecutter/guides/practical-guide-to-securing-your-mac)], [NPO Radio 1](https://nporadio1.nl/nieuws/binnenland/8eaff3a2-8b29-4f63-9b74-36d2b28b1fe1/ooit-online-eens-wat-doms-geplaatst-ga-jezelf-eens-googlen-en-kijk-dan-wat-je-tegenkomt), [Wired](https://wired.com/story/firefox-mozilla-2022), [Fast Company](https://fastcompany.com/91167564/mozilla-wants-you-to-love-firefox-again) and [404 Media](https://404media.co/privacy-service-optery-faces-backlash-after-plan-to-send-openai-user-data).
+亦見於:[Ars Technica](https://arstechnica.com/gadgets/2022/02/is-firefox-ok)、[Wirecutter](https://nytimes.com/wirecutter/guides/practical-guide-to-securing-windows-pc) [[2](https://nytimes.com/wirecutter/guides/practical-guide-to-securing-your-mac)]、[NPO Radio 1](https://nporadio1.nl/nieuws/binnenland/8eaff3a2-8b29-4f63-9b74-36d2b28b1fe1/ooit-online-eens-wat-doms-geplaatst-ga-jezelf-eens-googlen-en-kijk-dan-wat-je-tegenkomt)、[Wired](https://wired.com/story/firefox-mozilla-2022)、[Fast Company](https://fastcompany.com/91167564/mozilla-wants-you-to-love-firefox-again) 與 [404 Media](https://404media.co/privacy-service-optery-faces-backlash-after-plan-to-send-openai-user-data)。
-## :material-history: History
+## :material-history: 歷史紀錄
Privacy Guides 於 2021 年 9 月推出,是 [已解散](about/privacytools.md) 的「PrivacyTools」開放原始碼教育計畫的延續。 我們意識到獨立、注重標準的產品推薦和隱私領域常識的重要性,這也是為什麼我們需要保留自 2015 年以來眾多貢獻者所創造的工作,並確保這些資訊在網路上有一個無限期的穩定歸宿。
@@ -211,9 +211,9 @@ Privacy Guides 於 2021 年 9 月推出,是 [已解散](about/privacytools.md)
我們還推出了新的討論論壇 [discuss.privacyguides.net](https://discuss.privacyguides.net) ,一個可以分享想法並詢問有關我們使命之問題的社區平臺。 這可擴大我們在 Matrix 上的現有社群,並取代我們先前的 GitHub 討論平台,減少我們對專有討論平台的依賴。
-In 2023, we launched international translations of our website in [French](https://www.privacyguides.org/fr), [Hebrew](https://www.privacyguides.org/he), [Dutch](https://www.privacyguides.org/nl), and more languages, made possible by our excellent translation team on [Crowdin](https://crowdin.com/project/privacyguides). 我們計劃繼續擴大我們的服務範圍並發揚教育使命,並尋找方法更清楚地突顯現代數位時代的人們缺乏隱私意識的危險,以及科技產業安全漏洞的普遍性和危害。
+2023年,我們推出了[法文](https://www.privacyguides.org/fr)、[希伯來文](https://www.privacyguides.org/he)、[荷蘭文](https://www.privacyguides.org/nl)以及更多語言的網站翻譯版本,這些都是由 [Crowdin](https://crowdin.com/project/privacyguides) 上的優秀翻譯團隊所促成的。 我們計劃繼續擴大我們的服務範圍並發揚教育使命,並尋找方法更清楚地突顯現代數位時代的人們缺乏隱私意識的危險,以及科技產業安全漏洞的普遍性和危害。
-## :material-license: Site License
+## :material-license: 網站授權條款
diff --git a/i18n/zh-TW/ai-chat.md b/i18n/zh-TW/ai-chat.md
index f029b5c8..c38a0aeb 100644
--- a/i18n/zh-TW/ai-chat.md
+++ b/i18n/zh-TW/ai-chat.md
@@ -12,7 +12,7 @@ cover: ai-chatbots.webp
- [:material-account-cash: 監控資本主義](basics/common-threats.md#surveillance-as-a-business-model){ .pg-brown }
- [:material-close-outline: 審查](basics/common-threats.md#avoiding-censorship){ .pg-blue-gray }
-The use of **AI chat**, also known as Large Language Models (LLMs), has become increasingly common since the release of ChatGPT in 2022. LLM 可以幫助我們寫出更好的文章;瞭解不熟悉的主題;或是回答各式各樣的問題。 They work by statistically predicting the next word in their responses based on a vast amount of data scraped from the web.
+自 ChatGPT 於2022年發表以來,**人工智慧聊天**(亦稱為大型語言模型 (LLMs))的使用愈來愈普遍。 LLM 可以幫助我們寫出更好的文章;瞭解不熟悉的主題;或是回答各式各樣的問題。 他們根據從網路上搜刮下來的海量資料,透過統計方式運作,預測回應中的下一個詞彙。
## LLM 的隱私權疑慮
@@ -26,7 +26,7 @@ The use of **AI chat**, also known as Large Language Models (LLMs), has become i
### 本地 AI 模型的硬體
-本地模型也相當容易運行。 It's possible to run smaller models at lower speeds on as little as 8 GB of RAM. 使用更強大的硬體,例如具有足夠 VRAM 的專用 GPU 或具有快速 LPDDR5X 記憶體的現代系統,可以提供最佳的體驗。
+本地模型也相當容易運行。 只要 8 GB 記憶體,就能以較慢的速度執行較小的模型。 使用更強大的硬體,例如具有足夠 VRAM 的專用 GPU 或具有快速 LPDDR5X 記憶體的現代系統,可以提供最佳的體驗。
LLM 通常可以透過參數的數量來區分用途,對於提供給終端使用者的開放原始碼模型,參數的數量通常介於 1.3B 到 405B 之間。 例如,參數低於 6.7B 的模型只適合文字摘要等基本任務,而參數介於 7B 與 13B 之間的模型則是品質與速度的絕佳折衷。 具備進階推理能力的模型一般在 70B 左右。
@@ -42,9 +42,9 @@ LLM 通常可以透過參數的數量來區分用途,對於提供給終端使
### 選擇模型
-有許多採用寬鬆式自由軟體授權條款的模型可供下載。 [Hugging Face](https://huggingface.co/models) 是一個讓您瀏覽、研究和下載常用格式模型的平台,如 [GGUF](https://huggingface.co/docs/hub/en/gguf)。 提供優質 'open-weights'模型 的公司包括 Mistral、Meta、Microsoft 和 Google 等大公司。 However, there are also many community models and [fine-tuned](https://en.wikipedia.org/wiki/Fine-tuning_\(deep_learning\)) models available. 如上所述,量化模型為使用消費級硬體的使用者提供了模型品質與效能之間的最佳平衡。
+有許多採用寬鬆式自由軟體授權條款的模型可供下載。 [Hugging Face](https://huggingface.co/models) 是一個讓您瀏覽、研究和下載常用格式模型的平台,如 [GGUF](https://huggingface.co/docs/hub/en/gguf)。 提供優質 'open-weights'模型 的公司包括 Mistral、Meta、Microsoft 和 Google 等大公司。 不過,也有許多社群模型與[微調](https://zh.wikipedia.org/wiki/微调_\(深度学习\))模型可以使用。 如上所述,量化模型為使用消費級硬體的使用者提供了模型品質與效能之間的最佳平衡。
-為了幫助您選擇適合您的模型,您可以參考排行榜和基準。 使用最廣泛的排行榜是由社群驅動的 [LM Arena](https://lmarena.ai)。 此外,[OpenLLM Leaderboard](https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard) 著重於 'open-weights'模型 在一般基準上的表現,例如: [MMLU-Pro](https://arxiv.org/abs/2406.01574)。 There are also specialized benchmarks which measure factors like [emotional intelligence](https://eqbench.com), ["uncensored general intelligence"](https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard), and [many others](https://nebuly.com/blog/llm-leaderboards).
+為了幫助您選擇適合您的模型,您可以參考排行榜和基準。 使用最廣泛的排行榜是由社群驅動的 [LM Arena](https://lmarena.ai)。 此外,[OpenLLM Leaderboard](https://huggingface.co/spaces/open-llm-leaderboard/open_llm_leaderboard) 著重於 'open-weights'模型 在一般基準上的表現,例如: [MMLU-Pro](https://arxiv.org/abs/2406.01574)。 也有一些專門的基準測試,用來測量如[情緒商數](https://eqbench.com)、[「不受限制的一般智力」](https://huggingface.co/spaces/DontPlanToEnd/UGI-Leaderboard),以及[許多其他](https://nebuly.com/blog/llm-leaderboards)的基準。
## AI 聊天客戶端
@@ -63,17 +63,17 @@ LLM 通常可以透過參數的數量來區分用途,對於提供給終端使
{align=right}
-**Kobold.cpp** is an AI client that runs locally on your Windows, Mac, or Linux computer. 如果您需要大量的客製化和調整,例如為了角色扮演的目的,這是一個絕佳的選擇。
+**Kobold.cpp** 是可在您的 Windows、macOS 或 Linux 電腦上本機執行的 AI 客戶端。 如果您需要大量的客製化和調整,例如為了角色扮演的目的,這是一個絕佳的選擇。
除了支援大量的文字模型之外,Kobold.cpp 也支援圖片產生器,如: [Stable Diffusion](https://stability.ai/stable-image) ;以及自動語音辨識工具,如: [Whisper](https://github.com/ggerganov/whisper.cpp)。
-[:octicons-repo-16: Repository](https://github.com/LostRuins/koboldcpp#readme){ .md-button .md-button--primary }
-[:octicons-info-16:](https://github.com/LostRuins/koboldcpp/wiki){ .card-link title="Documentation" }
-[:octicons-code-16:](https://github.com/LostRuins/koboldcpp){ .card-link title="Source Code" }
-[:octicons-lock-16:](https://github.com/LostRuins/koboldcpp/blob/2f3597c29abea8b6da28f21e714b6b24a5aca79b/SECURITY.md){ .card-link title="Security Policy" }
+[:octicons-repo-16: 原始碼倉庫](https://github.com/LostRuins/koboldcpp#readme){ .md-button .md-button--primary }
+[:octicons-info-16:](https://github.com/LostRuins/koboldcpp/wiki){ .card-link title="文件" }
+[:octicons-code-16:](https://github.com/LostRuins/koboldcpp){ .card-link title="原始碼" }
+[:octicons-lock-16:](https://github.com/LostRuins/koboldcpp/blob/2f3597c29abea8b6da28f21e714b6b24a5aca79b/SECURITY.md){ .card-link title="安全政策" }
-Downloads
+下載
- [:fontawesome-brands-windows: Windows](https://github.com/LostRuins/koboldcpp/releases)
- [:simple-apple: macOS](https://github.com/LostRuins/koboldcpp/releases)
@@ -98,7 +98,7 @@ Kobold.cpp 可讓您修改 AI 模型溫度和 AI 聊天的 system prompt 等參
{align=right}
-**Ollama** is a command-line AI assistant that is available on macOS, Linux, and Windows. 如果您正在尋找一個易於使用、具有廣泛相容性,而且因使用 推理(inference) 和其他技術而速度極快的 AI 客戶端,Ollama 是一個不錯的選擇。 它也無須進行任何手動設定。
+**Ollama** 是可在 macOS、Linux 與 Windows 上使用的命令列 AI 小幫手。 如果您正在尋找一個易於使用、具有廣泛相容性,而且因使用 推理(inference) 和其他技術而速度極快的 AI 客戶端,Ollama 是一個不錯的選擇。 它也無須進行任何手動設定。
除了支援大量文字生成模型之外,Ollama 也支援 [LLaVA](https://github.com/haotian-liu/LLaVA) 模型,並且對 Meta 的 [Llama 視覺能力](https://huggingface.co/blog/llama32#what-is-llama-32-vision) 有實驗性的支援。
@@ -108,7 +108,7 @@ Kobold.cpp 可讓您修改 AI 模型溫度和 AI 聊天的 system prompt 等參
[:octicons-lock-16:](https://github.com/ollama/ollama/blob/a14f76491d694b2f5a0dec6473514b7f93beeea0/SECURITY.md){ .card-link title="安全策略" }
-Downloads
+下載
- [:fontawesome-brands-windows: Windows](https://ollama.com/download/windows)
- [:simple-apple: macOS](https://ollama.com/download/mac)
@@ -124,19 +124,19 @@ Ollama 可自動下載您要使用的 AI 模型,簡化設定本地 AI 聊天
-{align=right}
+{align=right}
-**Llamafile** is a lightweight, single-file executable that allows users to run LLMs locally on their own computers without any setup involved. 它 [由 Mozilla 資助](https://hacks.mozilla.org/2023/11/introducing-llamafile),可在 Linux、macOS 和 Windows 上使用。
+**Llamafile** 是輕量化的單一執行檔,讓使用者可以在自己的電腦上本機執行 LLM,而不需要設定任何東西。 它 [由 Mozilla 資助](https://hacks.mozilla.org/2023/11/introducing-llamafile),可在 Linux、macOS 和 Windows 上使用。
Llamafile 也支援 LLaVA。 但是,它不支援語音辨識及圖片生成。
-[:octicons-repo-16: Repository](https://github.com/Mozilla-Ocho/llamafile#readme){ .md-button .md-button--primary }
-[:octicons-info-16:](https://github.com/Mozilla-Ocho/llamafile#quickstart){ .card-link title="Documentation" }
-[:octicons-code-16:](https://github.com/Mozilla-Ocho/llamafile){ .card-link title="Source Code" }
-[:octicons-lock-16:](https://github.com/Mozilla-Ocho/llamafile#security){ .card-link title="Security Policy" }
+[:octicons-repo-16: 原始碼倉庫](https://github.com/Mozilla-Ocho/llamafile#readme){ .md-button .md-button--primary }
+[:octicons-info-16:](https://github.com/Mozilla-Ocho/llamafile#quickstart){ .card-link title="文件" }
+[:octicons-code-16:](https://github.com/Mozilla-Ocho/llamafile){ .card-link title="原始碼" }
+[:octicons-lock-16:](https://github.com/Mozilla-Ocho/llamafile#security){ .card-link title="安全政策" }
-Downloads
+下載
- [:fontawesome-brands-windows: Windows](https://github.com/Mozilla-Ocho/llamafile#quickstart)
- [:simple-apple: macOS](https://github.com/Mozilla-Ocho/llamafile#quickstart)
@@ -146,7 +146,7 @@ Llamafile 也支援 LLaVA。 但是,它不支援語音辨識及圖片生成。
-Mozilla 只為某些 Llama 和 Mistral 模型提供 llamafile,而可用的第三方 llamafile 很少。 Moreover, Windows limits `.exe` files to 4 GB, and most models are larger than that.
+Mozilla 只為某些 Llama 和 Mistral 模型提供 llamafile,而可用的第三方 llamafile 很少。 此外,Windows 的 `.exe` 檔案大小限制為最大 4 GB,而大多數的模型都大於此大小。
為了迴避這些問題,您可以 [load external weights](https://github.com/Mozilla-Ocho/llamafile#using-llamafile-with-external-weights)。
@@ -165,7 +165,7 @@ Mozilla 只為某些 Llama 和 Mistral 模型提供 llamafile,而可用的第
- 核對 checksum(核對和)[^1]
- 在 Hugging Face 上,您可以按一下模型檔案,並在其下方尋找 **Copy SHA256** 按鈕,以找到雜湊值。 您應該將此 checksum 與您下載的模型檔案之 checksum 進行比對。
-A downloaded model is generally safe if it satisfies all the above checks.
+如果下載的模型通過上述的所有檢查,那麼該模型應該是安全的。
## 標準
@@ -177,22 +177,22 @@ A downloaded model is generally safe if it satisfies all the above checks.
- 不得傳輸個人資料,包括聊天資料。
- 必須跨平台。
- 必須不需要 GPU。
-- Must support GPU-powered, fast inference.
+- 必須支援使用 GPU 快速推理。
- 必須無需網際網路連線。
### 最佳情況
最佳情況標準代表我們 _希望_ 在這個類別的完美項目的應具備的特性。 推薦產品可能沒有此功能,但若有這些功能則會讓排名更為提高。
-- Should be easy to download and set up, e.g. with a one-click installation process.
+- 應當易於下載與設定,例如一鍵安裝流程。
- 應該有內建的模型下載器選項。
- 使用者應能修改 LLM 參數,例如其 system prompt 或 temperature。
-\*[LLaVA]: Large Language and Vision Assistant (multimodal AI model)
-\*[LLM]: Large Language Model (AI model such as ChatGPT)
-\*[LLMs]: Large Language Models (AI models such as ChatGPT)
-\*[open-weights models]: AI models that anyone can download and use, but the underlying training data and/or algorithms for them are proprietary.
-\*[system prompt]: The general instructions given by a human to guide how an AI chat should operate.
-\*[temperature]: A parameter used in AI models to control the level of randomness and creativity in the generated text.
+\*[LLaVA]:大型語言與視覺助理(多模態人工智慧模型)
+\*[LLM]:大型語言模型(如 ChatGPT 等的人工智慧模型)
+\*[LLMs]:大型語言模型(如 ChatGPT 等的人工智慧模型)
+\*[開放權重模型]:任何人都能下載並使用的人工智慧模型,但其底層的訓練資料或演算法卻是專有的。
+\*[系統提示詞]:人類給予的通用指示,用來指導人工智慧聊天應該如何運作。
+\*[溫度]:人工智慧模型中使用的參數,用來控制產生文字的隨機性與創意程度。
[^1]: 檔案 checksum 是一種防篡改指紋。 開發人員通常會在可單獨下載的文字檔或下載頁面中提供 checksum。 驗證您所下載檔案的 checksum 是否與開發者提供的 checksum 相符,有助於確保檔案是真實的,且在傳輸過程中未被篡改。 您可以使用 Linux 和 macOS 上的 `sha256sum` 或 Windows 上的 `certutil -hashfile file SHA256` 等指令來產生下載檔案的 checksum。
diff --git a/i18n/zh-TW/alternative-networks.md b/i18n/zh-TW/alternative-networks.md
index f008b5d0..bec430a7 100644
--- a/i18n/zh-TW/alternative-networks.md
+++ b/i18n/zh-TW/alternative-networks.md
@@ -35,7 +35,7 @@ cover: alternative-networks.webp
[Tor 瀏覽器資訊 :material-arrow-right-drop-circle:](tor.md){ .md-button .md-button--primary } [Tor 詳細介紹 :material-arrow-right-drop-circle:](advanced/tor-overview.md){ .md-button }
-You can access the Tor network using other tools; making this determination comes down to your threat model. If you are a casual Tor user who is not worried about your ISP collecting evidence against you, using apps like [Orbot](#orbot) or mobile browser apps to access the Tor network is probably fine. 越多人使用 Tor 有助於減少 Tor 的不良印記,降低 ISP 和政府可能編制的「Tor 用戶清單」內容。
+您可以使用其他工具存取 Tor 網路;此決策取決於您的威脅模型。 如果是不用擔心 ISP 蒐集針對您的證據的一般 Tor 使用者,那麼使用 [Orbot](#orbot) 等應用程式或行動瀏覽器應用程式存取 Tor 網路就可以了。 越多人使用 Tor 有助於減少 Tor 的不良印記,降低 ISP 和政府可能編制的「Tor 用戶清單」內容。
試用一下!
@@ -48,18 +48,18 @@ You can access the Tor network using other tools; making this determination come
-{ align=right }
+{ align=right }
-**Orbot** is a mobile application which routes traffic from any app on your device through the Tor network.
+**Orbot** 是行動裝置應用程式,可將您裝置上任何應用程式的流量導向透過 Tor 網路傳輸。
-[:octicons-home-16: Homepage](https://orbot.app){ .md-button .md-button--primary }
-[:octicons-eye-16:](https://orbot.app/privacy-policy){ .card-link title="Privacy Policy" }
-[:octicons-info-16:](https://orbot.app/faqs){ .card-link title="Documentation" }
-[:octicons-code-16:](https://orbot.app/code){ .card-link title="Source Code" }
-[:octicons-heart-16:](https://orbot.app/donate){ .card-link title="Contribute" }
+[:octicons-home-16: 首頁](https://orbot.app){ .md-button .md-button--primary }
+[:octicons-eye-16:](https://orbot.app/privacy-policy){ .card-link title="隱私權政策" }
+[:octicons-info-16:](https://orbot.app/faqs){ .card-link title="文件" }
+[:octicons-code-16:](https://orbot.app/code){ .card-link title="原始碼" }
+[:octicons-heart-16:](https://orbot.app/donate){ .card-link title="貢獻" }
-Downloads
+下載
- [:simple-googleplay: Google Play](https://play.google.com/store/apps/details?id=org.torproject.android)
- [:simple-appstore: App Store](https://apps.apple.com/app/id1609461599)
@@ -70,7 +70,7 @@ You can access the Tor network using other tools; making this determination come
-We previously recommended enabling the _Isolate Destination Address_ preference in Orbot settings. While this setting can theoretically improve privacy by enforcing the use of a different circuit for each IP address you connect to, it doesn't provide a practical advantage for most applications (especially web browsing), can come with a significant performance penalty, and increases the load on the Tor network. We no longer recommend adjusting this setting from its default value unless you know you need to.[^1]
+我們先前曾建議在 Orbot 設定中啟用「隔離目標位址」偏好設定。 雖然從理論上來說,此設定可以強制您連線至不同 IP 位址時使用不同的迴路來改善隱私,但其並未為大多數應用程式(特別是網路瀏覽器)提供實際的優勢,可能會帶來顯著的效能下降,增加 Tor 網路的負載。 我們不再建議您修改此設定,除非您非常確定您需要調整。[^1]
\=== "Android"