• <track id="0aiby"><code id="0aiby"><dd id="0aiby"></dd></code></track>

    <ins id="0aiby"></ins>

    當前位置: 主頁 > 商業 >

    2019需要警惕的6種真正人工智能危險:你入了哪些“坑”?

    時間:2019-01-14來源:互聯網 作者:編輯 點擊:
    曾經,擔心超級智能機器接管世界的前景是一種流行看法。過去的一年表明,在人工智能接管世界前前,人工智能可能會導致各種各樣的危險。 最新的人工智能方法在分類圖像和轉錄語

    曾經,擔心超級智能機器接管世界的前景是一種流行看法。過去的一年表明,在人工智能接管世界前前,人工智能可能會導致各種各樣的危險。

    最新的人工智能方法在分類圖像和轉錄語音等感知任務方面表現出色,但對這些技能的大肆宣傳和興奮掩蓋了我們距離制造出像我們這樣聰明的機器還有多遠。從2018年開始,有六起爭議凸顯出來,它們警告稱,即便是最聰明的人工智能算法也可能表現不佳,或者對人工智能的不小心應用可能會產生可怕的后果。

    1. 自動駕駛汽車事故

    今年3月,優步(Uber)的一輛自動駕駛汽車發生致命事故后,調查人員發現,該公司的技術遭遇了災難性的失敗,而這種失敗本來很容易避免。

    福特(Ford)和通用汽車(General Motors)等汽車制造商,優步等新進者,以及一大批初創企業,都在爭相將自動駕駛技術商業化。盡管這項技術還不成熟,但已經獲得了數十億美元的投資。Alphabet的子公司Waymo取得了最大的進步;去年,該公司在亞利桑那州推出了首個全自動出租車服務。但即便是Waymo的技術也是有限的,自動駕駛汽車的行駛范圍是被事先規定好了的。

    2019年需要注意的是:由于擔心扼殺創新,美國和其他地方的監管機構迄今采取了不干涉的方式。美國國家公路交通安全管理局甚至表示,現有的安全規則可能會放松。但行人和人類司機還沒有同意成為實驗對象。2019年的另一起嚴重事故可能會改變監管機構的態度。

    2. 政治操縱機器人

    今年3月,有消息稱,政治咨詢公司劍橋分析公司(Cambridge Analytica)利用Facebook的數據共享做法,影響了2016年美國總統大選。由此引發的騷動表明,決定哪些新聞和信息出現在社交媒體上的算法,可以被用來放大錯誤信息,破壞有益的辯論,并孤立持有不同觀點的公民。

    在一場國會聽證會上,Facebook首席執行官馬克·扎克伯格承諾,人工智能本身可以被訓練用于識別和屏蔽惡意內容,盡管它還遠遠無法理解文本、圖像或視頻的含義。

    2019年需要注意的是:扎克伯格的承諾將在南非和尼日利亞這兩個非洲最大的國家舉行的選舉中受到考驗。距離2020年美國大選還有一段時間,這可能會催生由人工智能驅動的新型錯誤信息技術,包括惡意聊天機器人。

    3. 人工智能可能危及和平

    去年,當谷歌的員工得知他們的雇主正在向美國空軍提供無人機圖像分類技術時,一場人工智能的和平運動應運而生。工人們擔心,這可能是朝著提供自動化致命無人機攻擊技術的方向邁出的決定性一步。作為回應,該公司放棄了“Project Maven”,創建了一套人工智能道德規范。

    學術界和工業界的重量級人物支持一項禁止使用自動化武器的運動。然而,人工智能在軍事上的使用勢頭只增不減,而微軟和亞馬遜等其他公司在提供幫助方面也沒有表現得非常積極。

    2019年需要注意的是:盡管五角大樓在人工智能項目上的支出正在增加,但活動人士希望,在定于今年舉行的一系列聯合國會議上,能夠達成一項禁止自主武器的先發制人條約。

    4. 人臉識別技術侵犯隱私

    人工智能識別人臉的超人能力,已促使各國以驚人的速度部署監控技術。面部識別還可以讓你解鎖手機,并在社交媒體上自動為照片添加標簽。

    公民自由組織警告反烏托邦的未來。這種技術是侵犯人們隱私的一種可怕的方式,而在培訓數據方面的偏見,可能會導致自動化歧視。

    在許多國家,人臉識別正被廣泛用于警務和政府監控。亞馬遜正在向美國移民和執法機構出售這項技術。

    2019年需要注意的是:人臉識別將擴展到車輛和網絡攝像頭,它將用于跟蹤你的情緒和身份。但我們也可能在今年看到對它的一些初步監管。

    5. Deepfakes造假效果逼真

    去年“deepfake”(深度偽造)視頻的激增表明,利用人工智能制作假視頻是多么容易。這意味著偽造的名人不雅視頻,大量怪異的電影混搭,以及潛在的惡意的政治誹謗活動。

    生成對抗網絡(GANs)涉及兩個對抗神經網絡,它可以召喚出非常逼真但完全虛構的圖像和視頻。英偉達最近展示了GANs如何生成你想要的任何種族、性別和年齡的逼真面孔。

    2019年需要注意的是:隨著deepfakes的增多,人們可能會在今年開始被這些造假視頻欺騙。美國國防部高級研究計劃局(DARPA)將測試鑒別deepfakes的新方法。但由于這也依賴于人工智能,這將是一場貓捉老鼠的游戲。

    6. 算法歧視

    去年在許多商業工具中都發現存在偏見?;诓黄胶鈹祿柧毜囊曈X算法無法識別女性或有色人種;以歷史數據為依據的招聘計劃被證明會延續已經存在的歧視。

    人工智能領域本身缺乏多樣性,這與偏見問題有關,也比較難解決。女性頂多占據30%的行業崗位和在頂尖大學里占據不到25%的教學崗位。黑人和拉丁裔的研究人員也相對較少。

    2019年需要注意的是:我們將看到檢測和減輕偏見的方法,以及可以從偏差數據中產生無偏結果的算法。國際機器學習大會(International Conference on Machine Learning)是一個重要的人工智能會議,將于2020年在埃塞俄比亞舉行,因為研究偏見問題的非洲科學家可能難以獲得前往其他地區旅行的簽證。其他事件也可能發生變化。

    【來源:前瞻網】

    頂一下
    (0)
    0%
    踩一下
    (0)
    0%
    ------分隔線----------------------------
    發表評論
    請自覺遵守互聯網相關的政策法規,嚴禁發布色情、暴力、反動的言論。
    評價:
    文章導航
    推薦內容
    丁香婷婷激情综合俺也去_国产精品国色综合久久蜜桃_欧美在线播放一区三区不卡_九九久久国产精品九九久久99
  • <track id="0aiby"><code id="0aiby"><dd id="0aiby"></dd></code></track>

    <ins id="0aiby"></ins>