国产猛烈尖叫高潮视频免费,久久狠狠中文字幕,国内精品视这里只有精品,亚洲无码一区精品视频

  • <var id="al248"><td id="al248"></td></var>

  • <table id="al248"><acronym id="al248"><bdo id="al248"></bdo></acronym></table>

    <u id="al248"><p id="al248"></p></u>

      1. <progress id="al248"><p id="al248"><thead id="al248"></thead></p></progress>
        1. 中國西藏網(wǎng) > 即時新聞 > 國內(nèi)

          警惕“AI招聘”背后的就業(yè)歧視

          發(fā)布時間:2023-09-13 11:18:00來源: 新京報

            ■ 社論

            在涉及機會公平、權益保障等領域,不能讓效率成為放大不平等的工具。

            “你的簡歷可能根本過不了人工智能(AI)這一關。”

            據(jù)《工人日報》報道,利用算法進行“AI招聘”已成為職場中的一大新熱點,如何規(guī)避AI算法可能帶來的歧視問題成為保障就業(yè)公平面臨的一個新問題。近日,上海市政協(xié)在一場重點提案督辦專題調研暨辦理推進會上,就針對這一問題進行了重點討論,旨在通過加強監(jiān)管、強化技術手段等,更好維護勞動者權益。

            當下,大數(shù)據(jù)、大模型等AI算法,正不斷進入各場景進行探索應用,互聯(lián)網(wǎng)招聘平臺也是其中之一。而利用AI技術進行簡歷篩選和人力資源開發(fā),也被視為當前招聘領域的發(fā)展趨勢。

            在勞動力就業(yè)市場加深依賴“AI”做決策的背景下,潛伏在AI算法背后的就業(yè)歧視等問題不容忽視。提前針對勞動者權益保護等關鍵議題公開討論,是公共政策應對技術挑戰(zhàn)的應有之策。

            從技術特征上看,AI短期內(nèi)無法代替自主決策,更多是以效率提升工具的方式在各行業(yè)發(fā)揮作用。但隨著AI不斷突破封閉場景,進入人與社會互動的多個領域,相關的倫理、權益保護等復雜問題,也成了技術發(fā)展的潛在風險。

            以就業(yè)歧視來看,AI算法本身不具備歧視的動機與能力,但在本身就存在潛在就業(yè)歧視的環(huán)境之中,AI可能會成為部分偏見的放大器。AI提升效率的本質邏輯,是結合數(shù)據(jù)積累和運算能力,給予使用者以最符合其期待的答案。

            那么,倘若一個原本就帶有性別、地域、年齡等偏見的企業(yè)招聘者,再利用這一算法系統(tǒng)進行簡歷篩選,那么客觀上就在流程中創(chuàng)造了一個“歧視信息繭房”:能被算法檢索和推送的,都是經(jīng)過偏見過濾后的簡歷。

            在這樣的情境之中,AI首先成了放大偏見的工具,效率提升的同時,也提高了“就業(yè)歧視”的范圍與傷害。其次,AI幫助部分招聘者進行了“道德回避”,即原本應承擔倫理道德風險的個體,可以在這一過程中將全部的偏見歧視問題,歸結為“算法的錯”。

            這就使得原本就相對隱形的“歧視”問題變得更加隱形。在共同的監(jiān)管和社會輿論壓力下,可能不會有任何一個AI工具公開將涉嫌歧視的標簽作為“過濾選項”,但算法推薦“討好使用者”的技術特征,卻使得這一過程在實踐中難以完全避免。

            換言之,一個有嚴重就業(yè)歧視的招聘者,可能會訓練出一個“更懂我的偏見和喜好”的算法模型。

            事實上,不只是在就業(yè)招聘領域,在多數(shù)處理“人的問題”的領域中,都可能存在類似問題。而旨在提升效率的科技進步,不能以顛覆、挑戰(zhàn)人類社會賴以生存的倫理底線為代價,尤其在涉及機會公平、權益保障等領域,更不能讓效率成為放大不平等的工具。

            引入外部監(jiān)督,同時用技術手段解決潛在問題,是解決技術進步與引發(fā)社會問題之間矛盾的兩個主要手段。

            在上述的調研推進會上,與會者也提出了讓勞動者參與算法治理、避免算法濫用等社會化監(jiān)管的建議。引入外部的充分監(jiān)督,尤其是讓相關利益主體參與其中,推動算法的公開透明,是值得效仿與鼓勵的做法。

            而從根本上看,可以進一步討論,在相關的算法規(guī)則中納入對公平等價值觀的紅線規(guī)則。比如,在與使用者互動中,對疑似歧視的使用行為本身進行定義、監(jiān)測和限制,甚至可以設置算法推薦的底線機制。

            再比如,在推薦規(guī)則之中,必須實現(xiàn)性別、學歷等比例,最大程度確保每一個求職者都有同等被看見的機會。

            防止技術對弱勢群體造成沖擊,既要未雨綢繆,又需在探索中反復測試技術手段的最優(yōu)解,這是擺在各行各業(yè)面前的新挑戰(zhàn)。

            唯有小心構筑起公共政策的防火墻,讓AI既是社會生產(chǎn)力解放與提升的工具,同時也能成為維護社會公平正義底線的幫手,這才是科技進步的長期價值與方向所在。

          (責編:陳濛濛)

          版權聲明:凡注明“來源:中國西藏網(wǎng)”或“中國西藏網(wǎng)文”的所有作品,版權歸高原(北京)文化傳播有限公司。任何媒體轉載、摘編、引用,須注明來源中國西藏網(wǎng)和署著作者名,否則將追究相關法律責任。