欢迎您!
主页 > 香港泽惠社群论坛网址是什么 > 正文
新股解读|商汤科技赴港IPO 算法伦理与数据合规或决定成败
日期:2021-09-26 来源:本站原创 浏览次数:

  【新股解读|商汤科技赴港IPO 算法伦理与数据合规或决定成败】近日,商汤科技提交港股上市招股书,21世纪经济报道记者注意到,商汤在招股书中强调,中国及其他国家有关隐私及数据保护的法律法规复杂且不断发展,其阐释及适用具有不确定性,因此其无法保证,根据适用的法律法规,隐私和数据保护措施已经并将始终被视为足够。

  近日, “AI四小龙”之一的商汤科技提交港股上市招股书,这家从实验室走出来的人工智能公司,已来到经受公开市场检验的时刻。

  21世纪经济报道记者注意到,在近期《数据安全法》和《个人信息保护法》相继出台的背景下,数据和信息安全的重要性被前所未有地强调。商汤在此次招股书中设有专章详尽披露了隐私与AI治理环节,说明其在业务中如何做到数据隐私及个人信息保护,并称将遵循三项人工智能伦理原则:可持续发展原则、以人为本原则和技术可控原则。

  至此,“AI四小龙”已相继亮相资本市场。云从已经在科创板审核过会,旷视还在第二轮问询流程中,依图折戟沉沙。商汤的上市之路会比前三家顺利吗?

  多位专家对21记者表示,商汤以积极态度应对监管,并做主动披露的行为,将对行业产生示范和竞争效应,即AI产业和科技公司需要遵循更严格的个人授权、更健全的商业伦理制度建设。

  而这势必进一步推高AI企业的成本,对未来行业竞争态势产生深远影响。关注重要数据的合规性、冷静应对跨境监管冲突、应对细分领域的法律监管,这些都将是行业内企业未来面临的合规新议题。

  商汤在招股说明书的“业务-数据隐私及个人信息保护”模块中表示,其高度重视数据安全及保护,已采取标准保护措施,包括保密分类、访问控制、数据加密及脱敏,以防止未经授权访问、泄露、不当使用或修改、损害或丢失数据及个人数据;已建立全面的个人资料管理系统,并制订一系列技术标准及规范,以确保数据及个人资料于整个生命周期内的安全。

  商汤主要采取以下原则来应对数据隐私和个人信息保护:数据的授权存取及使用,独立数据库及安全服务器系统,全面的数据及个人资料安全及管理政策、定期审核及应急计划。

  在数据及个人资料安全及管理政策方面,商汤表示其已实施全面的雇员保密政策、数据使用审批程序及数据追踪机制,以确保数据库的安全性。

  浙江垦丁律师事务所创始合伙人王琼飞认为,商汤招股书相关表述在整体上具有较大的可取之处,其中“网络安全事件”“脱敏”“数据生命周期”等专业名词的使用均准确无误,且其合规相关表述之内容已涵盖了数据安全以及人工智能伦理领域的绝大部分监管要点。

  但另一方面,他认为一些表述亦存在些许偏差,例如,“个人资料”的表述缺乏严谨性。“个人资料”与“个人信息”并不能完全等同,二者系交叉关系,使用“个人信息”的表述或更为稳妥。

  招股书介绍,商汤科技具体提供的服务包括面向智慧商业的SenseFoundry-Enterprise,面向智慧城市的SenseFoundry,面向智慧生活的SenseME、SenseMARS及SenseCare平台 ,面向智能汽车的SenseAuto。根据商汤科技的官网介绍,客户主要有上海西岸、交通运输部、上海地铁、西安地铁、郑州地铁、深圳地铁、国家卫星气象中心等。

  21记者注意到,在招股书中,商汤科技证实了政府客户较多的情况,商汤科技称其智慧城市业务在2018年、2019年、2020年以及截至2021年6月30日止六个月分别产生28.6%,41.9%,39.7%及47.6%的收入。

  浙江垦丁律师事务所合伙人李晋沅提醒,招股书中提到的“独立的数据库”,可能与当前政务数据、智慧城市建设的目标有冲突。他解释,智慧城市领域不同于其他商业模式中的数据合规及个人信息保护,其保护要求更高,同时对数据权益的约束性更详细更具体。根据《关键信息基础设施安全保护条例》中相关要求,涉及关键信息基础设施建设,其数据在生命周期内(无论收集、存储、共享还是销毁等)都需要单独予以区分对待。

  随着AI技术的快速发展和广泛应用,人工智能伦理问题亦受到各界关注,技术可控性成为重点监管方向。

  今年5月,在旷视科技IPO过程中,上交所首次对科技伦理进行了问询,要求旷视披露公司在人工智能伦理方面的组织架构、核心原则、内部控制及执行情况。今年7月28日,科技部发布《关于加强科技伦理治理的指导意见 (征求意见稿) 》,明确了伦理先行、敏捷治理等基本要求,并提出了五项科技伦理原则,同时要求企业根据实际情况建立科技伦理 (审查) 委员会,并要求“从事生命科学、医学、人工智能等科技活动的机构,研究内容涉及科技伦理敏感领域的,应设立科技伦理 (审查) 委员会”,此外还要求对科技人员加强科技伦理培训。《深圳经济特区人工智能产业促进条例 (草案) 》要求人工智能企业“设立伦理风险岗位”,“履行伦理审查和风险评估职责”。

  商汤在招股书中单列章节对人工智能伦理进行阐述,将人工智能伦理原则提炼为可持续发展原则、以人为本的原则和技术可控原则。为遵循该三项人工智能伦理原则,商汤称已在营运的各个方面实施多项举措,包括风险控制、研究及培训。

  在人工智能伦理风险控制方面,商汤表示已建立人工智能伦理审查程序,以审查及检测产品及服务的潜在伦理风险。在伦理审查程序的评估过程中,商汤可选择驳回新产品方案、中断进行中的产品开发项目,或停止不符合其原则及标准的现有产品。

  在人工智能伦理研究成果上,商汤自2019年起建立全球人工智能伦理案例数据库,数据库已收集数以百计关于人工智能在现实生活中应用的正面及负面案例,涵盖城市治理、人工智能教育、人工智能医疗及自动驾驶。

  对前述表述,中国互联网协会研究中心副主任、澳门彩今晚开奖结果。北京师范大学网络法治国际中心执行主任吴沈括认为,人工智能伦理是商业伦理的组成部分,是现代企业治理的大趋势。他特别注意到,商汤称其“定期为员工组织人工智能伦理培训,自行设计并持续更新伦理训练课程及材料”。商汤认为,“定期培训可提高雇员在日常工作中的伦理意识”。

  “企业的人工智能伦理制度不应该挂在墙上,而是要落实到企业所有职级、每一个员工的身上,这是目前很多企业做不到的。”他认为,现在行业、社会都正在形成一个共识——“在研究层面,治理问题最终还是人的问题。如果人的意识不到位,那么所有的制度设计,最终都无法很好地落地。”

  在过去一年的时间里,依图、旷视、云从、海天瑞声、云天励飞、格灵深瞳、云知声等“AI概念股”扎堆涌向IPO。梳理被问询的内容,数据合规及科技伦理均是审核的关注焦点,这或许是此次商汤主动披露的原动力。

  大成律师事务所高级合伙人邓志松认为,对科技企业而言,在招股书中主动对个人隐私、AI治理等风险做披露,一方面可以有效缩短IPO问询的回复时间,提高审查效率,另一方面也是切实履行发行人信息披露义务的表现。

  他介绍,对于投资者来说,企业招股书的内容是整个信息披露过程中的核心,招股书内容的准确性、完整性与透明度通常是监管机构审查的重点,因此招股书的内容不仅要正确无误,不存在误导性,还有完整性的要求。而对于监管机构关注的重点问题,如果企业招股书中写得不够清楚,则会面临多轮问询。

  旷视科技就是前车之鉴。5月28日晚间,旷视科技披露了科创板首轮共计560页的问询答复,其中涉及到了数据合规及科技伦理方面的问题。

  上交所要求旷视科技说明其技术、业务及产品(或服务)中涉及到数据采集、清洗、管理、运用的具体环节,以及不同环节涉及的数据的具体类型,文字、图像、视频等具体情况;相关数据来源和合规性;保证数据采集、清洗、管理、运用等各方面的合规措施;以及至今面临的数据合规方面的诉讼或纠纷等。

  而云从科技曾因财务资料过期而一度被中止发行上市审核,依图科技已撤回申请,其发行上市审核现已终止。

  “通过对数据保护这一块的重视,企业能向投资人或者是向他的客户,比如政府机构等,释放出一种他对信息安全保护的信心、决心和能力。”艾媒咨询CEO张毅指出,商汤此次在招股书中明确表达了对数据保护的关注,对提升其行业竞争力有一定的帮助。

  事实上,数据保护业务也可能成为一家公司自身新的营收来源。如微软公司提供了一个用于构建和签名受硬件保护的受信任应用程序的SDK——open enclave SDK,这个开源框架创建了一种可插入的通用方法来创建可再发行的可信应用程序,以保护正在使用的数据。这除了能满足自身合规需求外,还能在获得消费者信任的同时吸引其他有数据保护需求的主体。

  王琼飞分析,对于AI产业及科技公司来说,短期来看,鉴于数据合规、AI治理均将耗费大量的精力与成本。但从中期看,上市科技公司主动对个人隐私、AI治理工作进行披露,无疑将对其他企业起到示范以及指引作用,从而减轻数据标准化以及降低数据治理的工作量。

  “该披露工作还能一定程度上加快AI行业伦理规范的建成进度,减少AI算法的不透明性,从源头遏制人工智能的技术风险。”他指出,香港老奇人一句爆特。从长期来看,此举亦将加速AI行业的健康发展,在尊重和保护个人隐私的前提下,逐步实现人工智能创新与监管的平衡状态。

  21记者注意到,商汤在招股书中强调,中国及其他国家有关隐私及数据保护的法律法规复杂且不断发展,其阐释及适用具有不确定性,因此其无法保证,根据适用的法律法规,隐私和数据保护措施已经并将始终被视为足够。对此,张毅分析,数据保护工作没有终点,数据安全风险可能会一直存在,目前企业所做的数据保护工作仍然是阶段性的。

  “AI是技术,不是结果。”李晋沅分析,主要的监管和合规挑战来自更为细分垂直领域的各自法律法规:在汽车(自动驾驶)、工业2.0转型、生物医疗、教育、环保、工程建设、农业、水利、航空航天甚至军工等多个不同的业务场景下,可能涉及的监管与合规政策不尽相同。如最近国家互联网信息办公室等五部门发布《汽车数据安全管理若干规定》(试行),其中有关自动驾驶和智能汽车在数据方面的规定,致力于AI自动驾驶和深度学习的企业需要对其高度重视。

  王琼飞认为,挑战主要还是在数据合规如何定义“重要数据”与跨境监管冲突两大方面。

  首先,就数据合规部分,根据《网络安全法》《数据安全法》等相关法律法规规定以及最新的立法动向(《重要数据识别指南》等),除个人信息外,重要数据亦为未来的重点监管方向。

  “何为‘重要数据’?目前并无明确定义。”王琼飞指出,但可以确定的是,重要数据是从国家安全、社会稳定、经济运行、公共健康和安全等角度来进行识别和确认的,所以是国家数据安全监管制度的基石。他介绍,国外亦有针对此类数据的强监管政策,例如美国的CUI(Controlled Unclassified Information ,“受控非密信息”)管理制度。因此,鉴于重要数据的关键性及广泛的强监管性,科技企业未来亦应着重关注此部分数据的合规性。

  此外,跨境监管冲突问题亦将对AI企业带来极大的挑战。不论是数据抑或是人工智能相关,大多数国家均采取了“长臂管辖”思路,以不断扩大其主权及监管范围,且各国的数据保护标准亦非统一。而AI企业等科技公司的发展往往立足于互联网上的海量数据,此特性便无法避免跨境监管冲突问题的产生。例如,目前国际上并未对数据跨境流动形成统一监管框架,企业数据的跨境行为虽满足某一国家的监管需求,但极有可能同时突破另一国家的法律规定,从而受到相应制裁。故对于AI企业来说,在实现其全球化经营的过程中,如何做好自身合规工作以迎合不同国家的监管需求,是当下亟待解决的难题。

  邓志松也提出类似担忧,复杂的国际形势引发的技术竞争同样会为AI企业带来不小的挑战。特别是中美两国在人工智能方面展开的话语权争夺战,也对AI企业提出更高的网络安全、数据安全、国家安全的要求,例如需防止“技术锁喉”、确保产品供应链安全等。

  “算法的背后依然是人,也要继续探索面向大众的应用场景。强监管的目的,是为了避免人工智能行业成为披着高科技外衣的资本游戏。”吴沈括说。