• <tr id="mmmmm"><small id="mmmmm"></small></tr>
    • <noscript id="mmmmm"></noscript>
      <nav id="mmmmm"></nav>
    • <tr id="mmmmm"></tr>
      <nav id="mmmmm"><sup id="mmmmm"></sup></nav>

      婷婷色婷婷开心五月,一夲道岛国无码不卡视频,日韩人妻无码bd,亚洲另类无码专区首页

      • 臺灣網(wǎng)移動版

        臺灣網(wǎng)移動版

      “人工智慧+” 理性正視挑戰(zhàn)

      2021-06-04 08:13:00
      來源:光明日報
      字號

        機器人與樂手合奏。新華社發(fā)

        智慧互動機器人。新華社發(fā)

        人工智慧、5G、區(qū)塊鏈等技術(shù)賦能生命健康産業(yè)。新華社發(fā)

        手功能康復外骨骼機器手。新華社發(fā)

        語音識別、文本識別、視頻識別……數(shù)字經(jīng)濟時代,人工智慧技術(shù)已走近你我身邊,被視為經(jīng)濟增長的新引擎、國際競爭的新陣地和推動智慧社會建設的有效工具。而加快“人工智慧+”産業(yè)融合、賦能更多行業(yè)應用落地,更成為社會各界共同的期待。

        然而,不久前在由中國人工智慧學會主辦的2020中國人工智慧産業(yè)年會上,最新發(fā)佈的報告指出,目前已成熟應用的人工智慧技術(shù)僅為語音識別,機器學習、電腦視覺、自然語言處理、知識圖譜、智慧機器人等技術(shù)距離生長成熟尚需數(shù)年時間,而無人駕駛汽車在未來10年內(nèi)都不太可能出現(xiàn)。

        從實驗室走向大規(guī)模商用,人工智慧還需要多久?尚存在哪些“堵點”“痛點”?在許多業(yè)內(nèi)專家看來,正視人工智慧尚存在的諸多挑戰(zhàn),對技術(shù)賦能抱有理性期待,方能讓其回歸技術(shù)本質(zhì),成為更多産業(yè)變革創(chuàng)新的動力源泉。

        演算法不透明導致的不可解釋

        2016年,谷歌人工智慧系統(tǒng)AlphaGo擊敗世界圍棋冠軍李世石,令世人大為震動。依靠人工智慧深度學習理論的突破,電腦可以模倣人類作出決策,然而,這僅基於大量的數(shù)據(jù)學習,而非因果或規(guī)則推理,整個決策過程仍是一個“黑箱”,人類難以理解,導致追責難。

        復旦大學電腦科學技術(shù)學院院長姜育剛舉例,此前,美國IBM公司研發(fā)了人工智慧系統(tǒng)“沃森”幫助醫(yī)生進行診療決策。然而,許多醫(yī)生很快發(fā)現(xiàn)在使用“沃森”時,系統(tǒng)給出了多個不安全、不正確的治療意見,甚至在極端的診斷案例中,“沃森”給有出血癥狀的癌癥病人開出了容易導致出血的藥物,嚴重時可致患者死亡。然而,醫(yī)生卻並不知道為什麼“沃森”給出了這樣的意見。決策步驟的不可解釋,帶來諸多不確定性。

        近年來,人工智慧應用於新藥研發(fā)被寄予厚望。然而,演算法的不可解釋性卻橫亙在前。相關(guān)研發(fā)和監(jiān)管部門需要清楚地知道藥物開發(fā)中使用的演算法,從而理解人工智慧主導的決策背後的邏輯。如果不對監(jiān)管實現(xiàn)演算法透明化,人工智慧將會是一個無法進行嚴謹?shù)目茖W評價及驗證的“黑匣子”。這可能會導致在藥物審批過程中出現(xiàn)種種無法預料的問題,比如對人工智慧“發(fā)現(xiàn)”的生物標記物的接受度不明。此外,對於智慧政務、無人駕駛這樣安全性要求極高的行業(yè),人工智慧的引入自然更為謹慎。

        “深度學習的演算法和核心模型需要能夠真正展開,讓公眾知曉它的機理模型”,上海人工智慧研究院有限公司總經(jīng)理宋海濤建議。中科院軟體研究所研究員薛雲(yún)志則指出,人工智慧面向不同知識背景的用戶,要能以簡單、清晰的方式,對決策過程的根據(jù)和原因進行説明,並能對系統(tǒng)決策過程關(guān)鍵節(jié)點的數(shù)據(jù)加以追溯並能夠?qū)徲嫞@在未來人工智慧應用大規(guī)模落地時,是特別需要關(guān)注的特性,也是實施監(jiān)管的必要。

        易受欺騙引發(fā)安全性質(zhì)疑

        作為人工智慧技術(shù)的“大熱選手”,深度學習可以通過對大量已知樣本的訓練,製作自己的樣本,這是深度學習的特點,同樣也是痛點。

        京東人工智慧研究院院長周伯文坦言,人工智慧目前在面向産業(yè)化落地時,遇到的巨大挑戰(zhàn)正是真實環(huán)境的開放邊界和規(guī)則模糊,數(shù)據(jù)的“噪音”非常多,使得智慧模型的部分結(jié)果和使用情況難以讓人信賴。

        姜育剛指出,人工智慧目前的智慧判別模式存在缺陷,容易被對抗樣本所欺騙。比如圖像識別,在一張人像圖片上加入一些非常少量的干擾,人為視覺看上去基本沒有區(qū)別,但人工智慧模型就會産生識別錯誤;再如自動駕駛,一張“限速80碼”的交通標牌,加入一些干擾後,就可能被機器識別成“禁止通行”。顯然,存在很大的安全隱患。

        語音識別領(lǐng)域也存在這種問題。技術(shù)人員在語音上任意加入非常微小的干擾,語音識別系統(tǒng)就可能會識別錯誤。同樣,在文本識別領(lǐng)域,改變一個字母就可以使得文本內(nèi)容被錯誤分類。

        此外,若深度學習的數(shù)據(jù)集中存在隱藏的偏見,人工智慧系統(tǒng)無法發(fā)現(xiàn),也不會否定。缺少反饋機制的“照單全收”,最終可能導致生成的結(jié)果並不客觀。

        例如在行業(yè)內(nèi)已經(jīng)出現(xiàn)的,人工智慧在深度學習後對女性、少數(shù)族裔、非主流文化群體産生“歧視”:亞馬遜通過人工智慧篩選簡歷,卻發(fā)現(xiàn)了系統(tǒng)對女性存在偏見導致最終關(guān)閉。更為常見的是手機軟體利用人工智慧演算法導致的大數(shù)據(jù)“殺熟”,如根據(jù)手機類型的不同,可能會推薦不同類型的商品,甚至打車時推薦不同價格、檔次的車輛。

        目前,“AI+金融”的發(fā)展如火如荼。但當金融機構(gòu)均採用人工智慧進行決策時,其市場信號解讀就可能趨同與不斷強化,導致形成偏離正常市場規(guī)律的結(jié)果。而這些不正常的市場變化也會成為人工智慧的學習基礎,將人工智慧的決策邏輯進一步畸化,容易造成惡劣的後果。

        以上這些問題,影響著人工智慧賦能實體經(jīng)濟的安全性,凸顯産業(yè)對技術(shù)可信賴性的呼喚。“從AI到可信賴AI,意味著我們需要在技術(shù)層面上解決魯棒性(穩(wěn)定性)、可解釋性和可複製性這些核心技術(shù)挑戰(zhàn)。同時為了大規(guī)模産業(yè)化應用,我們必須考慮到人工智慧的公平性和負責任。這幾個維度是人工智慧必須要解決的問題。”周伯文説。

        法律規(guī)制和倫理問題待完善

        “目前的智慧演算法還存在給出的決策不符合倫理道德要求的問題。”姜育剛指出,在應用中已發(fā)現(xiàn),智慧演算法的決策沒有從改善人類生活、服務人類社會的角度來進行。如智慧音響在對話中出現(xiàn)“勸主人自殺”的內(nèi)容,聊天機器人學會了罵髒話和種族歧視等。而這些不友好的決策都是模型從數(shù)據(jù)中學來的,並不是研發(fā)者對人工智慧模型設置的目標。

        同時,人工智慧演算法需要海量的數(shù)據(jù)驅(qū)動,訓練數(shù)據(jù)可以被演算法恢復,個人隱私存在洩露和被侵犯的風險,而大量的數(shù)據(jù)也存在共用壁壘。在人工智慧賦能金融的過程中,這一問題尤被關(guān)注。最新報告顯示,近年來,每年發(fā)生金融隱私?jīng)妒录源蠹s35%的速度在增長。加之近年來人工智慧技術(shù)在金融行業(yè)的廣泛應用,由此帶來的銀行數(shù)據(jù)、保險數(shù)據(jù)、網(wǎng)貸業(yè)務及大數(shù)據(jù)等個人資訊保護問題日益凸顯。

        在2020年抗擊新冠肺炎疫情期間,人工智慧技術(shù)在我國響應速度快、介入力度大,幫助推出了CT影像的輔助診斷系統(tǒng),提升了醫(yī)生診斷的速度和信心。然而,醫(yī)療影像智慧診斷發(fā)展也面臨著法律規(guī)制問題。與其他人工智慧賦能行業(yè)的大數(shù)據(jù)相比,獲取高品質(zhì)的醫(yī)療影像數(shù)據(jù)相對困難。不同醫(yī)療機構(gòu)的數(shù)據(jù),目前還很少互通、共用。而單個醫(yī)療機構(gòu)積累的數(shù)據(jù)往往不足以訓練出有效的深度學習模型。此外,使用醫(yī)療影像數(shù)據(jù)進行人工智慧演算法的訓練還涉及保護病人隱私等非技術(shù)問題。

        此外,近年來,隨著人工智慧技術(shù)的深入探索,科學界有人提出研發(fā)“人工生命”,成為又一個倫理話題。對此,中國工程院院士李德毅表示,生命不僅有智慧,更要有意識。從倫理角度上,生命是人類的底線,觸碰底線要慎之又慎。“所以,我們可以通過電腦技術(shù)繼續(xù)研發(fā)沒有意識、但有智慧的高階機器。讓人類的智慧在體外延伸,保持它的工具性,而非人工創(chuàng)造意識。”

        深圳雲(yún)天勵飛技術(shù)股份有限公司副總裁鄭文先同時提醒,“人工智慧的技術(shù)進步可以給社會帶來非常正向的效益,不應因為對隱私保護機制等方面的憂慮而將人工智慧的問題妖魔化。”他認為,當前人工智慧的法律法規(guī)尚不健全,亟待有關(guān)部門進一步科學制定和完善,這樣才能引導公眾更加健康地看待這一新技術(shù)應用於産業(yè)。

        亟待技術(shù)進步 發(fā)展新一代人工智慧

        面對技術(shù)落地所遇到的種種“痛點”,許多專家給出了這樣的比喻:“人工智慧相當於一個錘子,不能哪一個釘子都能砸。”

        “我覺得,人工智慧發(fā)展的第一步是輔助,讓重復複雜的勞動量由機器完成,在這個基礎上,我們再創(chuàng)造條件逐漸向智慧決策的方向發(fā)展。”鄭州大學教授蔣慧琴表示,對於業(yè)界有人提出“人工智慧超越甚至取代人類”的期待和預計,應保持冷靜,“只有沿著這樣的方向堅持下來,才有可能達到我們的目標”。

        中國科學技術(shù)發(fā)展戰(zhàn)略研究院研究員李修全認為,在重復性操作的生産環(huán)節(jié)和基於海量數(shù)據(jù)的高強度計算優(yōu)化求解上,人工智慧具有明顯優(yōu)勢,應當是當前應用於産業(yè)的主要方向。

        華為雲(yún)人工智慧領(lǐng)域首席科學家田奇則認為,加速人工智慧賦能産業(yè)落地,其與科學計算的深度融合應是顯著趨勢,在工業(yè)、氣象、能源、生物、醫(yī)學等領(lǐng)域,需要大量科學計算,人工智慧技術(shù)能為傳統(tǒng)科學計算帶來新的思路、方法和工具,同時由於傳統(tǒng)科學計算具有嚴密性,人工智慧也可以提高它本身的可解釋性。

        “推動人工智慧進入新的階段,有賴於與數(shù)學、腦科學等結(jié)合實現(xiàn)底層理論的突破。”中國科學院院士、清華大學人工智慧研究院院長張鈸説,未來所需要的第三代人工智慧應是實現(xiàn)可解釋的、魯棒的、可信安全的智慧系統(tǒng),依靠知識、數(shù)據(jù)、演算法和算力四個要素,將實現(xiàn)從不帶認知的人工智慧轉(zhuǎn)變?yōu)閹дJ知的人工智慧。

        如何解釋新一代人工智慧?李德毅認為,傳統(tǒng)人工智慧是電腦智慧,屬於封閉型人工智慧。新一代人工智慧應該是開放性人工智慧。當前,所有的電腦都是對軟體工程師的智慧編程代碼進行一次又一次簡單執(zhí)行,“但我們希望這個機器在學習過程中能夠解決新的問題,學習應成為新一代人工智慧解決現(xiàn)實問題的基礎”。

        清華大學智慧技術(shù)與系統(tǒng)國家重點實驗室教授鄧志東建議,數(shù)據(jù)和算力的增加總有天花板,要推動人工智慧技術(shù)深度賦能更多行業(yè),需要的是核心關(guān)鍵技術(shù)突破,特別是認知智慧的進步,同時,還要依靠智慧高端晶片、感測器等零部件的硬體支撐,再借助我國5G資訊技術(shù)的優(yōu)勢,形成合力支撐産業(yè)落地和商業(yè)化應用。

        此外,人工智慧標準化工作也應加速展開。薛雲(yún)志表示:“建立可信賴的人工智慧需要標準化,一方面要從開發(fā)者訓練、測試與實驗、部署運營和監(jiān)管的角度來做,另一方面則要從晶片等硬體、演算法、産品系統(tǒng)出發(fā),來制定標準和規(guī)範,同時對人工智慧的風險、倫理、管理等標準研究也要儘快啟動,這些都只是第一步。”

      [責任編輯:李丹]
      婷婷色婷婷开心五月
    • <tr id="mmmmm"><small id="mmmmm"></small></tr>
      • <noscript id="mmmmm"></noscript>
        <nav id="mmmmm"></nav>
      • <tr id="mmmmm"></tr>
        <nav id="mmmmm"><sup id="mmmmm"></sup></nav>