人民日報:為人工智能注入更多安全基因
大數(shù)據(jù)殺熟、技術黑箱、算法偏見等專業(yè)名詞,正在隨著人工智能的普及引來人們的關注。隨著人工智能技術的快速發(fā)展和廣泛應用,技術倫理問題開始從幕后走到臺前,成為人工智能研究發(fā)展的重要議題。
這段時間,一款AI換臉軟件持續(xù)刷屏。該軟件通過獲取人臉信息,利用人工智能的深度學習技術,將影視劇、綜藝節(jié)目片段中明星臉換成用戶的。然而,在滿足了用戶短暫的娛樂心理后,軟件中所設置的灰色條款引發(fā)了用戶對于自身肖像權和信息安全的擔憂。同時,軟件的換臉行為是否對影視劇、綜藝節(jié)目構成知識產(chǎn)權侵權仍有待商榷。這場討論,進一步促進人們對人工智能技術未來的反思。
放眼當下,借助人工智能,企業(yè)賦予每個用戶的偏好和行為以大量數(shù)據(jù)標簽,摸透用戶甚至超過用戶對自己的了解;在社交媒體中,人工智能將觀點相近的內(nèi)容反復推薦給用戶,逐步加劇偏見強化;通過對海量數(shù)據(jù)的挖掘,不同的消費者購買同一件商品的價格不同,有被“殺熟”之嫌……人工智能技術的商業(yè)化,帶來了技術濫用、信息安全等問題。可以說,隨著人工智能技術的飛躍,“智慧大爆發(fā)”帶來的工具倫理性問題一直未被解決,進而造成個人隱私泄露、法律倫理困境。如何確保安全、合理地使用人工智能,亟待整個社會求解。
日前發(fā)布的《人工智能安全與法治導則(2019)》,從算法安全、數(shù)據(jù)安全、知識產(chǎn)權、社會就業(yè)和法律責任等五大方面,對人工智能發(fā)展的風險提出安全與法治應對策略。這是人工智能行業(yè)對于社會訴求的一種積極回應,也是行業(yè)對于自身技術發(fā)展安全性的一次深刻思考。也許,技術的不斷革新可以破解現(xiàn)存的“技術黑箱”,但人工智能的發(fā)展必須始終堅持的是,把安全性作為其技術發(fā)展的考量標準,把握商業(yè)價值和人文價值的統(tǒng)一,把握市場倫理和技術倫理的統(tǒng)一。
實現(xiàn)技術可用、可靠、可知、可控,首先要在人工智能的商業(yè)考量中注入更多的人文關懷。必須明確的是,利用技術的主體和收益方應是人本身。發(fā)揮技術優(yōu)勢去彌補行業(yè)短板,理應明確人的主體地位,讓人工智能在商業(yè)價值與人文價值中求得平衡。同時,更要讓人工智能處在一個公平、安全的市場倫理下發(fā)展。技術應當存在倫理邊界,技術發(fā)展和市場倫理的底線就是公平和安全。一方面,新的產(chǎn)品和技術應當經(jīng)過嚴格的測試和驗證,確保其性能達到合理預期;另一方面新技術的發(fā)展應確保數(shù)字網(wǎng)絡、人身財產(chǎn)以及社會發(fā)展的安全。
智能時代的大幕正在拉開,“人工智能+教育”“人工智能+醫(yī)療”“人工智能+媒體”……不斷打破著各個行業(yè)的發(fā)展瓶頸,重塑著不同產(chǎn)業(yè)的生產(chǎn)模式,更是給人類社會的發(fā)展拓展了更多的智慧空間。為人工智能注入更多的人文與安全基因,才能推動人工智能向安全、可靠、可控的方向發(fā)展。
《 人民日報 》( 2019年09月16日 05 版)
分享讓更多人看到