5年前,南方科技大学的贺建奎因为基因编辑技术“造出”天生免疫艾滋病婴儿获刑;人工智能近年来的迅猛发展,也引发质疑,人类该不该造出一种新特种AI?当下,越来越多有识人士认为,搞科技也该有伦理制约。12月16日,2023科技伦理高峰论坛在复旦大学举行,与会150多位学者提出:推动科技向善。
何以科技向善?中国科学院大学、中国科学院科技战略咨询研究院研究员李真真认为,由于人工智能日益强大,现阶段人机伦理关系已经成为一个无法回避的议题,即所谓的“价值对齐”。伦理层面,“价值对齐”旨在确保人类创造的AI与人类拥有相同的价值观;社会层面,人工智能的智能化表现只是模仿人类的理性思维模式,但并不具备人类的情感、意志。人机关系伦理问题的关键在于确定人应当是人机关系的主导者,明确人类对AI的需求和目标。
中国人民大学哲学院教授、教育部人文社会科学重点研究基地伦理学与道德理论研究中心主任曹刚指出,科技既给人类带来福祉但也威胁到人类生存,根据当前情况,负面影响更有可能成为现实。我们需要忧惧伦理问题,只有在这种忧患中才能进行前瞻性预防。因此,责任在伦理中是最核心的概念。
清华大学科学社会学院教授李正风认为,新科技革命对传统社会确立伦理原则的基础和机制带来挑战,对传统社会的“自然基础”、人类“同一性”产生变革。他强调,由于技术的后果风险不确定,当后果已显而易见时,控制已变得代价高昂和缓慢,因此后验选择并不总是可行的。科技伦理治理不仅是为了促进科技事业健康发展,也是人类文明健康发展的根本要求。应以“以人为本”为核心,协同研究、治理和教育与科学普及工作,探索科技时代的文明社会构建。
中国科学院自动化研究所、人工智能伦理与治理中心教授曾毅表示,人工智能问题已从潜在问题变成了实存风险。目前的伦理规范仍有不足。此外,人工智能面临着人类放弃自己的决策权、认知升级、误导公众等伦理挑战,而人工智能距离成为责任和道德主体,仍待进一步科技突破。他强调,人类必须预想超级智能到来后该如何应对。人工智能与人类和谐共生,需要人与人工智能价值观的双向协同,而非单向校准。
去年11月,中国科协和复旦大学联合成立科技伦理与人类未来研究院,合作开展科技伦理理论探索和建言咨政。昨天,中国科协和复旦大学签署《合作备忘录》,共同推动筹建中国科技伦理学会。
本报记者 张炯强