<strike id="862qo"></strike>
<del id="862qo"><button id="862qo"></button></del>
  • <dfn id="862qo"></dfn>
  • 首頁 > 歷史 > 天之水微語 > 正文

    【天之水微語】 謹防掉入AI合成詐騙的陷阱

    天之水微語】

    謹防掉入AI合成詐騙的陷阱

    在當今數字化高速發展的時代,一種新型的詐騙手段正悄然興起,那便是令人警惕的 AI 合成詐騙。

    近段時間,央視新聞CCTV13《法治在線》介紹了兩起“AI換臉偽造不雅照”案,相關詐騙團伙主要利用被害者視頻照片信息制作“艷照”進行敲詐。

    第一起是深圳市民吳先生收到一張包含自己與一名不認識女子的“艷照”彩信,犯罪嫌疑人同時在彩信中威脅當事人需在指定時間前將錢財轉到指定賬號“破財消災”,此后吳先生報警求助。

    深圳坪山警方經調查鎖定了一個流竄作案的犯罪團伙,該團伙以“已掌握你在外面找小姐”、“艷照將公諸于眾”等方式進行威脅,在多地警方協作下,警方抓獲了以王某為首的十多名犯罪嫌疑人,相關團伙分工明確,據稱“有人修圖、有人尋作案目標”。

    而在山東威海,也有受害者王先生遭到類似“AI換臉”敲詐勒索,他的手機同樣接收到一張包含自己面孔的“裸照”彩信,同時附帶有“我有你的全部影像資料”等文字內容。在王先生試圖向犯罪嫌疑人轉賬20萬元時,工作人員緊急叫停了相關行為并報警,警方順藤摸瓜抓獲了背后的敲詐勒索犯罪組織。

    隨著人工智能技術的日新月異,不法分子也趁機利用這一先進科技,精心編織出一個個詐騙的陷阱。AI 合成詐騙手段之高明,令人防不勝防。

    從技術層面來看,AI 能夠模擬出逼真的聲音、形象和語言模式。例如,通過對某人聲音特征的分析和學習,AI 可以完美復刻其聲音,讓接聽電話的人誤以為就是本人在交流。再比如,利用某人的照片和視頻素材,AI 能夠合成以假亂真的動態影像,從而制造出虛假的場景和對話。

    在現實生活中,已經有不少受害者深陷 AI 合成詐騙的泥沼。有的不法分子利用 AI 合成技術冒充親人,以緊急情況為由騙取錢財;有的則偽裝成金融機構的工作人員,誘導受害者提供個人敏感信息,進而實施財產盜竊。

    AI 合成詐騙的出現,不僅給個人帶來了巨大的經濟損失,也對社會的信任體系造成了嚴重沖擊。人們在交流和交易中變得更加小心翼翼,生怕一不小心就落入詐騙的圈套。

    為了防范 AI 合成詐騙,我們需要多方面的努力。首先個人要提高自身的防范意識,不輕易相信網絡上的陌生信息,對于涉及錢財和重要個人信息的交流務必謹慎核實。同時,相關部門也應加強監管力度,制定更為嚴格的法律法規,對利用 AI 技術進行詐騙的行為予以嚴厲打擊。科研機構和企業則應當致力于研發更先進的識別和防范技術,為社會筑牢安全防線。

    警方提醒,此類犯罪嫌疑人通常通過網絡等渠道搜集受害者視頻照片等信息,利用“AI換臉技術”合成所謂不雅視頻或艷照,再通過短信、郵箱等渠道對受害者進行敲詐勒索,如果用戶接到不法分子此類短信,應及時向警方報案求助。

     

    • 微笑
    • 流汗
    • 難過
    • 羨慕
    • 憤怒
    • 流淚
    責任編輯:紫萱
    0