越來越多研究資料顯示,民主國家舉行選舉期間,就是俄羅斯與中國發動境外資訊操弄(FIMI)的高峰期。中、俄兩國透過官方操控的網軍組織、代理人及協力者向民主國家發動「資訊戰」,引導當地網路社群平台輿論走向,最終目標是激化民主國家內部的政黨競爭,讓目標國整體社會因選舉紛擾與政黨惡鬥而陷入兩極化的對立局面。
中、俄兩國也會透過資訊操弄,暗中協助符合俄羅斯或中國利益的政黨或候選人,幫助他們贏得選舉;反之,若民主國家內的政黨或候選人,對中俄兩國採取批判立場,就可能成為資訊戰攻擊對象。民主國家基於監督制衡與言論自由,在選舉過程中不同政黨、候選人之間相互競爭、批評,原本屬於民主政治常態。然而,獨裁國家看準時機發動資訊戰攻勢,每逢選舉期間,就成為民主國家的脆弱時刻。

俄羅斯暗中支持德國極右派政黨
由於原先執政的紅綠燈聯盟陷入內部紛爭而瓦解,德國在今年(2025)2月25日舉行國會大選。長期關注假訊息影響的歐洲非政府組織「Alliance4Europe」,在選前公布〈俄羅斯試圖干預德國大選〉調查報告,報告指出俄羅斯從2024年以來,透過「對抗不義基金會」(Foundation to Battle Injustice)、「網路研究機構」(Internet Research Agency)兩個表面上是民間公益單位,實際上卻是為俄服務的網軍農場 ,對德國發起大規模資訊操弄攻擊。
調查顯示,俄羅斯網軍在短時間內成立上百個假新聞網站,同時也利用網紅與Tiktok影片,轉發俄羅斯大外宣媒體RT(前稱:Russia Today)製作的影片,並散佈德國綠黨、基民盟(CDU)指標性候選人的不實性醜聞;俄羅斯網軍也試圖煽動種族主義,激發德國民眾對外來移民的不滿,散佈假訊息聲稱政府將引進百萬肯亞勞工、指控綠黨與烏克蘭合謀,德國將接納更多烏克蘭難民而導致治安崩壞。
更令人驚訝的是,極右派「德國另類選擇黨」(AfD)與俄羅斯網軍之間,存在著「魚幫水、水幫魚」的互利合作關係。俄羅斯網軍發起的資訊操弄與假訊息攻勢,符合德國另類選擇黨一貫的政治立場,形同幫忙該黨進行宣傳;而德國另類選擇黨及其政治人物,也毫不避嫌地分享或引述俄羅斯網軍製造的謠言與假訊息,等於是協助放大俄羅斯境外資訊操弄的影響力。
美國資安公司Recorded Future近期發布〈俄羅斯資訊戰瞄準德國大選〉調查報告 ,同樣觀察到多個俄羅斯網軍集團,針對德國選舉發起大規模資訊操弄,創設大量假新聞網站、社群帳號,以影響德國民間輿論,暗中協助俄羅斯支持的政黨(德國另類選擇黨),並且散佈假訊息損害現任政府的社會公信力。


美國五十州都遭遇資訊操弄攻擊
馬歇爾基金會(German Marshall Fund of the United States, GMF)近期公布〈境外資訊操弄在美國〉研究報告 ,分析美國各州遭遇的假訊息、輿論戰攻擊。該份報告直指俄羅斯、中國與伊朗等國家,積極改良執行資訊操弄的工具與策略,運用在地協力者發動攻擊,而且攻擊目標也有所調整,瞄準美國地方政壇與在地社群,其中又以選舉時的「搖擺州」最容易遭受攻擊。
美國獨特的聯邦體制,州政府與地方自治,一直是維繫美國民主活力最重要的基礎。研究報告指出,俄羅斯與中國顯然已經意識到地方政府在美國政壇中的重要性,試圖由下而上,影響美國民眾與地方政治人物對於政治議題的看法。其中,俄羅斯對美國發動的資訊操作套路,偏重透過點燃爭議性議題的討論,引發美國內部社會分裂、對立更加劇烈;而中國的操作手法,則偏重引導美國輿論以符合中國的國家利益。
以2024年美國總統大選期間的喬治亞州為例,俄羅斯透過境外代理人買通在地協力者,於社群平台X(前稱Twitter)上傳一則偽造影片,內容是兩名自稱來自海地(Haiti)的移民,在喬治亞州內多個郡非法投票,支持民主黨總統候選人賀錦麗。儘管喬治亞州政府出面揭穿該影片內容造假,但是在社群平台上仍被大量轉發,獲得數百萬次觀看。
這則假影片迅速點燃「移民非法投票」話題,由原本州層級的地方選務爭議,上升成為全美關注的政治熱門話題,引發不同陣營支持者在社群平台上激烈論戰。包含聯邦調查局(FBI)以及多個情報機關調查後指出,該則影片是俄羅斯發動,用以分裂美國社會、破壞民眾對於選舉制度信任感的資訊操弄行動。
馬歇爾基金會的研究報告也指出,2024年美國大選期間,中國政府幕後操控被西方國家稱為「Spamouflage」的網軍組織,針對多位「反中」立場的共和黨參議員、眾議員發動輿論戰攻擊。中國網軍利用社群平台假帳號散佈「反中」國會議員涉嫌貪汙、收取不當利益的假訊息。中國網軍也嘗試帶風向,藉著操作爭議性話題,例如,是否支持以色列、是否曾經使用「反猶」詞彙,引導網路輿論批評「反中」立場的議員。

資訊戰攻擊最前線,台灣成為中國網軍技術實驗場
美國國土安全部(United States Department of Homeland Security, DHS)今年(2025)1月發布〈敵意使用生成式AI對於國土安全之影響〉研究報告 ,分析在AI技術快速發展之下,「深度偽造」(deepfake)技術獲得突破性發展,由國家力量操控的網軍,能夠製造出更逼真的偽造人臉影像與聲音合成。以往人們深信「一張照片勝過千言萬語」,但在如今這個真假難辨的時代,使得資訊真實性及資訊安全蒙上厚重的陰影。
該份報告探討深度偽造技術應用於政治領域的影響力,特別以2024年台灣總統大選為例,點名中國控制的網軍利用AI生成與深偽技術製作假影片,散播一段偽造的「賴清德台獨談話」影片,試圖挑起台灣選民對於秉持台灣主體性與台獨立場候選人的反感;而另一則影片假造賴清德聲稱支持其他總統候選人。美國國土安全部認為,AI生成的偽造影片技術,已經開始被用於干擾民主國家的選舉。
無獨有偶,微軟(Microsoft)發布的〈2024年網路威脅報告〉同樣指出 ,中國官方幕後操控的網軍集團,不僅系統性介入干擾台灣總統與立委選舉,也把台灣當成新技術的實驗場。例如,中國網軍散播一段偽造錄音檔,內容是郭台銘表態支持其他總統候選人,微軟在報告中指出,這是首度監測到網軍利用AI生成技術干擾民主國家選舉。

老方法越用越熟練,在地協力者發動議題戰吸引媒體報導
獨裁國家操控的網軍集團,開始運用新技術執行資訊操弄攻擊,與此同時,傳統的資訊戰手法也沒有停止,而是越用越精。國科會所屬的「科技、民主與社會研究中心」,最近刊登〈解讀中國數位攻勢:台灣2024年總統大選資訊戰策略分析〉評論專文,李旻榛研究員(Lilly Min-Chen Lee)以雞蛋案、「巴拉圭醜聞」事件為例,分析中國資訊戰操作手法。
2023年8月13日,時任副總統的賴清德,出席友邦巴拉圭總統就職典禮,與此同時,有匿名帳號在免費網路圖床上傳偽造的西班牙文文件;隔天,社群平台X上就出現多個帳號發文分享該份文件,指控台灣政府向巴拉圭提供480萬美元,台灣政府私下推動金援外交。類似的假消息,隨後也被散佈在PTT與Mobile01等社群平台。
儘管台灣總統府與外交部8月16日公開駁斥文件造假,但是親中立場鮮明的香港媒體《法治報》、《大公報》、《巴士的報》、《星島日報》,卻開始以「外交醜聞」、「金援外交」等負面角度報導這起假消息。
李旻榛指出,該起事件反映出中國的資訊戰操作手法,透過匿名帳號在網路社群平台釋放假訊息,吸引反對黨人士跟進批評政府,最後由中國官方媒體或親中媒體大幅渲染,企圖影響台灣民眾和國際華語社群對於台灣執政黨的看法。
李旻榛也建議,保護民主制度不受資訊戰侵害,已經成為民主國家政策制定者必須重視的議題。在國際層次,民主國家與國際組織可以建立資訊分享與提前預警的合作機制,並且積極協助投入事實查核工作的民間專業團體。在國內層次,應當立法要求社群平台業者負起事實查核責任,並且配合政府要求下架假訊息;在各教育階段也應該納入媒體識讀與數位素養課程,幫助民眾掌握資訊識別、抵抗資訊操弄的能力。