<em id="pxrrh"><form id="pxrrh"></form></em>

      <sub id="pxrrh"><listing id="pxrrh"><mark id="pxrrh"></mark></listing></sub>

      <form id="pxrrh"><nobr id="pxrrh"><menuitem id="pxrrh"></menuitem></nobr></form>

        <address id="pxrrh"></address>
        <form id="pxrrh"></form>

          濱州電視臺
          魯北晚報
          消息牛
          掌握濱州
          2022年07月04日 15:40來源: 光明日報作者:
          查看數0

          【光明青年論壇】

          編者按

          隨著科技進步的日新月異,世界發展的面貌和格局也發生著深刻變化。人工智能、大數據算法等新發現、新突破,在造福人類的同時,也帶來了一定的倫理風險和挑戰。2022年3月,中共中央辦公廳、國務院辦公廳印發《關于加強科技倫理治理的意見》,對加強科技倫理治理作出系統部署。樹立正確的科技倫理意識,遵守科技倫理要求,不僅是科技工作者,更是全人類都應該具備的認識自覺和行為自覺。那么,如何增強科技倫理意識,實現科技增進人類福祉的宗旨?本刊特組織幾位青年學者圍繞“倫理價值”“倫理原則”“倫理責任”三個維度開展對話,并邀請專家予以點評和闡發,以期對深化相關研究和探討有所助益。

          與談人

          譚泰成 中國人民大學哲學院博士生

          閆雪楓 復旦大學哲學學院博士生

          周穎 上海交通大學科學史與科學文化研究院博士生

          主持人

          劉永謀 中國人民大學哲學院教授、國家發展與戰略研究院研究員

          1、倫理價值:助力走出科技發展困境

          主持人:針對如今的科技發展現狀和發展前景,我們都面臨著哪些倫理風險和挑戰?

          譚泰成:21世紀以來,隨著運用新科技參與社會治理的不斷推進,特別是智能革命興起后,出現了“智能治理的綜合”趨勢,即不同技術治理手段逐漸在智能技術搭建的平臺上綜合起來,不再是零散的、局部的甚至相沖突的“技治拼盤”。各種智能治理措施在新冠肺炎疫情暴發以來更是迅猛發展,在大展身手的同時也暴露出一些問題,且大多與倫理風險和挑戰相關。主要表現為四個方面:一是“信息孤島”。無法接入智能平臺與他者通信的人群,就會成為“信息孤島”,在數字世界中“消失”,信息權不能得到公平保障。二是“無人困境”。智能技術如果不能與“治理中的人”很好地結合起來,人的因素容易被治理者忽視,技術問題則被過分強調,可能出現背離人本的“無人困境”。三是數據專家權力越界。要對數據專家的權力進行規范,防止技治專家權力過大,違背社會主義民主法治的基本精神。四是個人隱私濫用。盡管政府已在盡力立法對數據、個人隱私予以保護,但仍然存在不少風險。

          周穎:近年來,數據被視為一種新型生產要素,與土地、勞動、資本、技術等傳統生產要素一樣是人類社會的重要構成。伴隨數據科學與數據技術的發展,數據正在進行著對整個社會生活、生產和治理方式的重塑。在全球數字化轉型的進程中,我國數字化發展備受關注且發展迅速?;跀祿茖W與數據技術對人類社會的深度影響,相關的倫理風險和挑戰也隨之而至,并成為社會各界熱議的話題。比如,健康碼推出不久就出現了許多沒有手機或不會下載、使用該程序的群體——尤其是老年人群體,不光被技術拒絕,更被公共場所拒絕,進而加劇了社會分化、權利不平等的倫理問題,也體現出倫理在數據賦能過程中缺位帶來的危害。此外,與數據相關的倫理風險還包括數據不正當獲取,數據訪問、使用和共享具有不透明性,數據信任危機和數據被過度商用等問題所帶來的倫理風險和倫理挑戰。

          主持人:要走出科技發展的道德倫理困境,“倫理反思”扮演著怎么樣的角色?

          周穎:為了走出科技發展的倫理困境,倫理反思是必不可少的。歷史地看,倫理反思貫穿技術哲學發展全過程。經典技術哲學關注的是整體而抽象的“大寫的技術”,技術的倫理反思通常是悲觀地批判技術的社會影響和它所造成的人類生存境況的變壞。隨著德國學者胡塞爾吹響“回到事物本身”的號角,一定程度促使技術哲學更加關注經驗事實,即“打開技術黑箱”,倫理反思也更加注重具體的技術經驗證據。隨之而來的技術的快速發展,使倫理問題愈發顯現,技術倫理學逐漸從技術哲學中分離出來,進一步地,荷蘭學者維貝克等主張反思進路應當“從外在主義、人本主義到內在主義、非人本主義”。從數據應用的發展來看,對隱私、安全、公平等方面進行深入的倫理反思,才能促使我國經濟社會更加健康有序發展,促使大數據技術產品更新換代和數據賦能相關產業的轉型升級。

          閆雪楓:正如澳大利亞學者彼得·辛格所言,當面對新興的科學技術時,許多人會產生某種直覺,但直覺未必是經得起推敲的。從生命倫理學的視角來看,倫理反思一方面能夠使我們從習以為常的生活中認識到技術帶來的道德困境和挑戰,另一方面,借助哲學史上的經典理論框架,倫理反思能為我們在諸多彼此沖突的價值觀念中提供多角度思考問題的進路,幫助我們提煉梳理對于技術的態度和觀點,推理重構“不言自明”的信念背后的論證邏輯,審慎地分析其中的問題。破除科幻電影和小說的夸張情節對于技術本質的扭曲,讓我們能回過頭來審視一些廣泛存在的規范性觀念本身是否合理,進而為科學技術的研究與實踐進行恰當的辯護。值得注意的是,進行倫理反思的目的不是一味地限制科技的發展。生命倫理學學者需要與科技從業者保持積極的對話,在科技發展與倫理反思中尋求動態的平衡點。

          譚泰成:最近被熱議的大數據治理、算法治理和區塊鏈治理,都屬于智能治理的具體形式。在各種智能治理場景中,倫理反思有助于不同主體(信息倫理學者、算法工程師、數字政府治理者和公眾等)審視技術治理措施是否因超過合理限度成為技術操控手段,揭示嵌構在算法認知背后的復雜制度安排。盡管對于智能治理的倫理反思存在認知差異,但它的根本宗旨在于實現人民向往的美好生活,厘清實施智能治理應有的限度。因此,倫理反思的關鍵在于區別智能治理與智能操控,尋求效率工具與倫理價值之間的動態平衡。實際上,智能治理伴隨著社會、政治、制度和倫理等多重風險,既有的道德批判不足以回應和化解,只有以制度化方式將德治、法治和技治手段充分融入智能治理中,才能實質性地發揮科技倫理在智能領域的治理成效。

          2、倫理原則:以人民為中心推動科技向善

          主持人:在《關于加強科技倫理治理的意見》的總體要求中,將“倫理先行”作為治理要求的第一條,那么,在科學技術的發展中何以“倫理先行”?

          譚泰成:倫理先行需要確定相關原則及規范。目前,歐盟、美國和中國都頒布了人工智能相關的倫理指南、指導意見或規范,基本涵蓋算法設計、部署和監管各個環節對于透明度和可解釋性的要求。發揮倫理引導智能治理的先行作用,需要充分考慮技術專家、政府治理者、企業用戶、公眾等不同治理參與者的多元價值訴求,兼顧倫理的價值適配性與算法的技術可用性。需要注意的是,倫理先行并非以絕對道德主義來約束或反對技術治理活動。倫理先行的中國語境在于確保技術治理為人民服務,使之服務于中國特色社會主義民主制度的更高目標。同時,強調一般倫理原則與具體治理場景的結合,例如從道義上要求科技企業完全公布其核心基礎算法并不可行。而對于公共部門而言,為了維持行政決策的執行力和公信力,有必要對算法行政決策進行充分解釋,澄清背后的治理依據和價值理由。

          周穎:倫理先行是技術倫理學的內在路徑的必然要求。維貝克等學者提出和發展了調節的理論,將技術自身納入解決其倫理問題的語境中。首先,在數據相關技術設計之初就需要倫理學者、技術專家、公眾代表等多元主體參與并制定倫理框架、指南、原則,即在設計的目的、方法和結果預測中納入倫理考量。例如,2020年美國聯邦總務署發布的《數據倫理框架草案》中提出7條數據倫理基本原則。其次,數據相關技術設計過程作為設計者的決策過程內在地滲透著倫理價值,技術調節作用不可避免地存在著,因此,須將倫理前置,有意識有目的有方向有預見地發揮調節作用。最后,由于技術不確定性的特征,調節的各個維度不能被完全預期,許多倫理問題往往是在技術與人處于社會大背景下進行交互的過程中產生的,所以需要對技術進一步修復調節。如健康碼在實施過程中顯現了隱私安全等倫理隱患,在修復過程中,既制定了《新冠肺炎疫情防控健康碼管理與服務暫行辦法》,其中提出“為疫情防控、疾病防治收集的個人信息,不得用于其他用途”,又從技術上對健康碼加以修復。經過三個維度的調節,技術自身被道德化,進而調節著人的合倫理的感知和行動。

          閆雪楓:新興技術手段往往兼具巨大的效益和風險,倫理先行也因此成了當今時代發展背景下的必然趨勢。為了應對基因編輯帶來的諸多挑戰,科技工作者作為發展科學技術的主體,首先需要考慮的是所進行的科學研究與實踐是否以人民為中心,以提升人類福祉作為最終的目標,對生命和倫理抱有敬畏之心。在開展科技工作時,要充分考慮到風險問題,提升自身的倫理道德敏感度,保證科技發展中倫理在先。新西蘭生命倫理學者尼古拉斯·阿加曾強調,不要忘記歷史上許多新技術都曾給人類造成預料之外的重大災難。因此在制定倫理原則時,仍然需要考慮到一些在當下看來或許永遠不會發生的情況,并給出相應的對策??茖W技術不斷發展,倫理原則也應當隨之改進和完善,保持動態的發展,以便應對新的挑戰。

          主持人:《關于加強科技倫理治理的意見》中明確了科技倫理的基本原則,即“增進人類福祉”“尊重生命權利”“堅持公平公正”“合理控制風險”“保持公開透明”,其中蘊含著哪些倫理觀念?

          譚泰成:在技術治理活動中,服務于人民是上述原則的根本價值旨歸??萍枷蛏茝母旧险f就是讓人民共享科技發展成果,共同引導技術治理賦能美好生活。當然,不同領域的技術治理活動對于科技倫理原則有不同側重,例如算法治理比較強調“公開透明”。這一原則主要是針對算法運行的黑箱問題,具體化為研發者如何通過改善訓練算法的數據樣本質量來確保算法輸出的精準度,以及企業和政府部門如何通過算法治理來提升決策效率,進而確保公共行政顯得更為合理,讓算法問責更具操作性。算法向善不應僅僅作為柔和的倫理觀念,而是轉化為敏捷的治理行動,避免因濫用算法而陷入偽技術治理。

          閆雪楓:《關于加強科技倫理治理的意見》中明確的科技倫理基本原則涵蓋了美國學者湯姆·比徹姆和詹姆士·邱卓思在《生命醫學倫理原則》中所提出的“尊重自主性”“不傷害”“有益”“公平”四原則的內涵。與之呼應的還有2018年第二屆人類基因組編輯國際峰會委員會對遺傳基因編輯開展臨床試驗所提出的十項原則。具體來說,在進行生殖系基因編輯臨床試驗時,需要首先確定無其他合理替代方案,并將試驗目的嚴格限制在嚴重疾病的預防上,最大限度避免試驗可能造成的傷害,合理控制風險。對參與試驗的患者充分告知試驗潛在的風險,保持公開透明,讓患者自主作出知情且自愿的決策,尊重患者的生命權利和自主性,保障患者知情權和隱私。

          周穎:從數據的視角來看,相關倫理問題大致圍繞隱私、安全、公平和正義四個面向展開,在個人、社會和國家的不同層面上表現不同,在不同的語境中側重的倫理原則也有所差異,其倫理意蘊具有多元化、復雜性、交叉性和動態性等特征。不同的倫理原則在不同的技術中或具體情境中可能存在價值沖突,產生取舍的困境。對此,維貝克曾將調節理論和價值設計相結合,提出了價值發揮重要作用的方法來加以應對。簡言之,將利益相關者的價值觀動態地轉化并內嵌到技術物中。以健康碼為例,最初以保護公眾健康和尊重生命權利為首要原則,在實施過程中逐步顯現出隱私泄漏、不公平、不透明等倫理隱患,在修復調節中就需要加以著重考慮,將之置于價值矩陣的前端。

          3、倫理責任:以正確價值導向規范科技實踐

          主持人:要形成多方參與、協同共治的科技倫理治理格局,需要各方主體履行怎樣的倫理責任?

          閆雪楓:形成多方參與、協同共治的科技倫理治理格局,首先需要科技工作者在進行研究的過程中主動加強倫理意識,自覺遵守科技倫理原則,積極與科技倫理學者進行對話和合作。對科技倫理研究者來說,需要以科學事實為依據開展對諸如知情同意、自主性等倫理問題的研究,為相關政策和原則的制定提供符合實際情況的理論支持。相關政府部門和決策者需要廣泛聽取來自自然科學、社會科學、人文科學的專業人員的意見建議,對特定技術的潛在風險效益以及倫理問題進行評估,建立可靠的監督機制。

          周穎:就數據倫理治理而言,主體包括政府部門、數據專家、大數據技術設計者、數據倫理學者、公眾、企業、高校、科研機構、社會團體等。為形成多方參與、協同共治的數據倫理治理格局,一方面,各方主體需要進行跨學科、跨范式的有效溝通,加強合作共建,凝聚力量,合力推進倫理治理實踐。另一方面,各方主體應當積極履行各自的倫理責任,如政府部門,應當進一步完善相應的管理、監管制度建設;各個創新主體應當接受政府部門的管理和監督,主動學習數據倫理知識,自覺遵守數據倫理要求,依法合規地開展研究工作;倫理學者應當拓展研究的廣度和深度,對比各國的研究成果,發表符合我國國情的倫理研究成果。

          譚泰成:要各方履行好倫理責任并非易事。在智能治理背景下,倫理責任的首要主體是處在創新和研究一線的算法工程師和數據科學家。他們應當克服算法理性主義的狂妄,保持科技謙遜主義的態度,提升對于數據樣本、算法解釋的倫理敏感性。從更大的角度來看,人工智能研究的科學共同體既要勇攀科技高峰,也要敏銳地意識到創新與研究活動的潛在倫理風險和挑戰。當前,技術治理的智能化趨勢集中反映在公共行政領域。對于公共治理者而言,最基本的倫理責任就是要慎用手中的數據和算法治理手段,合理約束這種“技術權力”。

          主持人:在人類社會深度科技化的背景下,倫理責任的難點與痛點有什么?

          譚泰成:結合算法倫理的現狀,與倫理責任有關的難點在于:倫理問題側重于關切如何達成基本的共識性原則,治理問題則傾向于從公共治理角度來妥善解決技術引發的社會問題。顯然,對于當下的算法治理而言,難點并不在于缺乏共識性的倫理原則,而是如何將這些原則貫徹到算法治理中。僅僅依靠頂層的適度設計是不夠的,還需要配套的底層設計。在智能治理領域,與倫理責任相關的最大痛點在于:人們往往為獲取服務便利,或覺得維權成本太高,不愿意與相關企業、公共部門或服務業的一些算法歧視或侵權行為進行抗爭。一個重要原因是,不同年齡段、不同地區、不同學歷層次的人群,對于風險感知程度不一樣,這種差別反過來會影響他們采取相應行動的意愿。另一個原因是,缺乏制度化的治理參與途徑,既有的維權手段也不盡如人意。

          閆雪楓:新興技術中普遍存在的倫理責任痛點與難點主要包括責任的歸屬、倫理審查實施的有效性,以及如何把握不同價值觀之間的平衡、技術發展與倫理之間的平衡。在基因編輯的基礎研究和臨床試驗中涉及包括科技工作者、患者、監督機構,以及政府部門等在內的多個主體。各主體的責任范圍、責任權重在不同的案例中不盡相同,因此需要具體情況具體分析。此外,即便有了倫理監督審查機構,也可能存在倫理審查理解偏差、尺度不嚴或走過場等情況,導致審查監管方面的倫理責任不能得到切實履行。落實倫理審查,需要從多方吸納審查人員、平衡各主體間的利益,從而保障審查是透明、客觀和公正的。最后需要明確的是,倫理責任應當是科技工作者開展科研活動時的底線,不應反過來限制科技的發展。

          周穎:人類深度數據化的背景下,難點與痛點之一在于仍有一部分群體游離在數據應用帶來的便利之外,被數據技術拒絕,更不必說承擔相應的倫理責任。以新冠應用程序中的技術拒絕現象為例,表現為一部分人游離在新冠應用程序之外,人從過去對技術的拒絕主體地位掉落下來,變成被技術拒絕的對象。表現為技術物質條件上的拒絕、技術知識和信息來源上的拒絕以及技術自身的不完善、技術漏洞或者非開放性技術權限的拒絕。該問題實質上使人與技術間的嚴格邊界被逐步消解。技術權利提升、倫理意蘊增強的同時,人的主體性地位、權利相對就被削弱了,從而,過去人對技術“呼之則來揮之則去”的自主性不復存在,而當技術不僅成為人的生活方式,且主導了人的生活方式時,幾乎無法為人所拒絕,然而卻有了拒絕人類進入的能力,這是技術發展的必然結果,因此也是未來值得關注和深入思考的問題。

          網友評論
            扒开双腿猛进入喷水高潮视频

                <em id="pxrrh"><form id="pxrrh"></form></em>

                <sub id="pxrrh"><listing id="pxrrh"><mark id="pxrrh"></mark></listing></sub>

                <form id="pxrrh"><nobr id="pxrrh"><menuitem id="pxrrh"></menuitem></nobr></form>

                  <address id="pxrrh"></address>
                  <form id="pxrrh"></form>