主講嘉賓:周文柏 中國科學(xué)技術(shù)大學(xué) 特任副研究員
邀 請 人:李斌 教授
時 間:2021年10月28日 下午3:45
地 點:深圳大學(xué)滄海校區(qū)致信樓電子與信息工程學(xué)院N710
報告摘要:人工智能的發(fā)展經(jīng)歷了漫長的歷史,從最初提出的MCP神經(jīng)元到現(xiàn)階段的各類智能應(yīng)用,其發(fā)展歷程可大致劃分為三個階段,這期間經(jīng)歷過兩次低谷。近年來,隨著軟硬件技術(shù)的發(fā)展和數(shù)據(jù)規(guī)模的提升,基于深度學(xué)習(xí)的人工智能技術(shù)取得了重大突破,也逐漸形成了算法——學(xué)派——技術(shù)領(lǐng)域——應(yīng)用領(lǐng)域的層級式體系。但隨之而來的是人工智能的安全問題,這是人工智能技術(shù)快速發(fā)展階段不可回避的重要問題。人工智能技術(shù)的風(fēng)險伴隨了智能技術(shù)的整個生命周期和所有應(yīng)用場景,而其中面臨威脅最大的,正是如計算機視覺等應(yīng)用最廣泛的領(lǐng)域。現(xiàn)階段人工智能安全主要有對抗樣本攻防、數(shù)據(jù)毒化攻防、模型可解釋、算法后門攻防、聯(lián)邦學(xué)習(xí)、差分隱私機器學(xué)習(xí)、深度偽造與檢測、機器學(xué)習(xí)開源框架平臺安全漏洞等熱點方向,中國學(xué)者也在這些熱點方向上做出了重大突破。但從整體和長遠來看,人工智能行業(yè)在“安全問題”上仍未做好充分準備。本報告針對人工智能安全這一主題進行聚焦,從保護AI賦能系統(tǒng)、利用AI提升安全防御、應(yīng)對AI的惡意應(yīng)用三個維度,具體解讀人工智能安全的含義,并圍繞模型水印、Deepfake深度偽造及檢測等具體問題,介紹團隊在人工智能安全領(lǐng)域的研究新進展。
嘉賓簡介:周文柏,碩士生導(dǎo)師,中國科學(xué)技術(shù)大學(xué)網(wǎng)絡(luò)空間安全學(xué)院特任副研究員,中國科大“墨子杰出青年”。中國圖像圖形學(xué)會數(shù)字媒體取證與安全專委會委員,青年組組長。主要研究興趣包括信息隱藏和人工智能安全,發(fā)表IEEETIFS、CVPR、ICCV、AAAI、TCSVT等高水平論文二十余篇,擔(dān)任AAAI、CVPR、ICCV、IJCV、ACMTIST等多個期刊會議的PCmember與審稿人。參與由Facebook發(fā)起的全球最高水準與最大規(guī)模人臉深度偽造檢測挑戰(zhàn)賽DFDC,獲全球第二,參與阿里巴巴-IJCAI19人工智能算法對抗賽,獲防御賽道第一。主持國家自然科學(xué)基金,國家重點研發(fā)計劃子課題,安徽省自然科學(xué)基金等多項科研項目。
電子與信息工程學(xué)院
2021年10月22日