搜尋
X

親民新聞館

打開
關閉

facebook LINE

2026-03-09【科技顏值-當選舉加入AI濾鏡】

​【科技顏值-當選舉加入AI濾鏡】

 

/劉俊宏(親民黨網路顧問暨青年團執行長、台北市黨部網路部主任、傑愛得資訊總經理、AI創作YouTuberGoogle Partner

中文 Podcasthttps://youtu.be/cX2TWUGJ4kE

 

數位浪潮下的造神:當民主選舉遇上 AI 人工智慧

 

【情境】
AI:太感人了! OOO 正在扶老人家過馬路! 這才是最動人的擺拍!

AI:你看這影片,XXX 那隻髒手就放在那個部位,真是毀三觀!

 

過去我們看到候選人買廣告大秀政績,現在我們得擔心AI正在直接修改我們的認知。

 

台灣身為科技大國,AI早就不只是陪談心的運算邏輯,而是變成了精明的選舉幕僚。現在的選戰不再只靠握手或大聲公,AI會根據你的手機習慣,悄悄分析出你最在意什麼;同樣的政策,它會讓年輕人看到育兒福利,讓長輩看到長照資源,精準地打動不同族群的心。更讓人憂心的是「真假難辨」的變臉與變聲技術,如同電影「Mission:Impossible」,現在卻很Easy,當影片和錄音都能信手捻來地造假,過去「眼見為憑、有圖有真相」的常識已經徹底瓦解,尤其台灣地緣政治處境特殊,更常成為全球假訊息操弄的實驗場。雖然我們開始嘗試用 AI 協助防詐打假,法律也要求標註 AI 廣告,但如何在保護民主與言論自由之間取得平衡,以及當 AI 出錯或被濫用抹黑時該由誰負責,依然是目前社會難解的法律與倫理挑戰。

 

法規與問責,止的住「AI 干預」選舉效益?

【情境】

居民:XXX 偷砍了樹!
政府:我們將依法裁罰!
居民:然後勒?

 

儘管 2026年我們已經有了《人工智慧基本法》與《打詐專法》,但法律的執行速度依然難以追上AI的傳播效益。在「勝選優先」的選戰中,即使事後法院判定違法,選舉結果往往早已塵埃落定,這種時間差讓法律很難產生真正的嚇阻力。特別是在像LINE這樣的封閉空間,法律很難強制規範私人訊息的真偽,候選人也容易透過匿名散播來切割責任,形成難以查證的盲區破口。最令人憂心的是,現在的AI不需要說謊就能操弄人心,它能精準分析大家的痛點,生成大量雖然合規卻帶有高度偏見的內容,刻意製造意識型態的對立與仇恨。這種遊走在法律灰色地帶的「資訊戰」,讓闢謠的成本遠高於造謠,也讓澄清真相變得比以往更加艱難。

 

​法規只是打造基礎「地板」而不是「天花板」

 

​法規問責真正能止住的是大規模、明目張膽的造假,讓極端的認知作戰有所顧慮,好比網路圈的DD攻擊。但對於隱藏在LINE、TG私群裡、利用認同感包裝的內容,法規約束效果和察覺速度有限,好比網路圈的 CC 攻擊。

​真能打擊 AI 干預選戰的關鍵可能在於​數位鑑識的即時性:是否能像檢測病毒一樣,在假訊息出現的幾小時內發布數位指紋(Digital Fingerprint)鑑定結果。

 

另外,球員兼裁判的問題,如何讓「查核中立」讓民眾信任,更是複雜的社會工程。

 

AI 內容工廠與 LINE 傳播通路

 

【情境】
LINE:早安!XXX...............(!!實在是太可怕了!!!請大家趕快轉分享!!)

 

為什麼LINE會成為假訊息的發源地?

在台灣LINE有9成的市佔滲透率,簡直就是台灣人的數位身份證。

​在 Facebook 或 Threads,大家說話是在「廣場」,講錯了有人會糾正會嘴;但在 LINE,我們是在「客廳」。當訊息是親朋好友轉發的,我們往往會先選擇相信,這就是為什麼假消息在群組裡最難被糾察識破。

 

​到了 2026年,挑戰更大了!AI不只會修圖,還能模仿聲音。想像一下,一段聽起來「一模一樣」的候選人私下錄音在群組瘋傳,殺傷力有多大?再加上現在 AI 科技能精準掌握每個里區、每個社團的喜好,把特定訊息塞進你的群組,這種「數位巷戰」正在挑戰我們每個人的判斷力。


平常是便衣鄉民,等待時機、密令,透過 AI 廠區取得打擊素材,開始散佈特定政治風向的 AI 影音,這種「養套殺」模式是目前最麻煩的挑戰。


 

資訊不對稱與不認同

 

【情境】

年輕人:你這是假新聞!
長輩:你才假新聞!

 

目前數位民主最核心的痛點:「信任的隔閡」比「技術的落差」更難跨越。

​當選戰進入資訊不對稱的狀態時,這已經不單純是「知不知道真相」的問題,而是轉向了「認同感」與「部落主義」的保衛戰。在這種心理機制下,權威訊息往往被視為「異教、敵方宣傳」,產生排斥感。

 

​1. 認同高於事實真相:心理學「逆火效應」(Backfire Effect)

​當一個人深信某則假訊息,即使你提供有力的權威數據去反駁,對方的信念往往不會動搖,反而會因為自尊心受傷受挑戰而變得更加堅定。

​心理防衛:接受權威資訊等於承認自己被騙了或是不夠聰明,這對許多人來說是龐大的心理成本。

​資訊繭房的舒適感:假訊息通常會包裝得非常情緒化且共情力,塑造對立的價值觀,這比複雜且中道的權威訊息更有吸引力。

​2. 傳播者比「訊息」更重要

​在LINE這類封閉社群中,訊息的接受度來自於「關係」。

​信任外包:民眾不再信任政府、媒體或專家,而是信任那個能共情、好聊、認識多年的老友、業務嘴的 ChatGPT。

​權威失靈:當權威單位(比方中選會、數位部、某官方)發布澄清時,對於已經產生預設立場的人來說,這些單位本身就是既得利益者或洗腦工具,導致訊息在到達對方眼球前就已經被過濾掉,「選擇性色偏的濾鏡」。

​3. AI 強化了「個人化」

​餵養推播:AI會不斷推薦符合使用者既有立場(興趣行為)的內容,讓用戶以為「全世界都在傳這件事」。

​深度偽造的視覺說服力:權威管道還在用「文字說明」闢謠時,假訊息已經在用「會說話、有表情的AI影片」感性溝通,感官體驗的落差讓理性查核顯得無趣、直接略過、快走不送。

 

​這道「認同高牆」如何跨越?

或許我們得先談感情,再解釋實情,取得那把可被信任的鑰匙,打開城門,再拆解A 所佈下的深偽兵陣。

 

回列表
打開