Reuters Institute(路透新闻学院)是牛津大学下属、专注于新闻业未来与媒体研究的学术与智库型机构。网站汇集大量原创研究报告、新闻分析、年度旗舰报告(如 Digital News Report)、国家与地区数据交互平台、以及面向从业者的记者奖学金(Journalist Fellowship)和培训项目。内容涵盖人工智能与新闻、气候报道、平台政策、受众研究等主题,并提供可下载的 PDF 报告、方法论说明和按国家分解的数据页面。该站同时通过电子通讯、活动与线上研讨会,将学术成果与从业界实践连接,支持新闻工作者、政策制定者与研究者获取证据驱动的洞见。
Logikcull 是一款面向法律团队的云端 eDiscovery 与 Legal Hold 自动化平台,主打“即刻采集、智能筛选、快速出具”的闭环发现流程。通过拖放上传或与 Google Vault、Slack、Microsoft 365、Box 等直接集成,Logikcull 可在数秒内完成数据采集、去重、索引与自动分类,大幅减少需人工复核的数据量(宣称可达约97%的数据削减)。平台还提供自动化保全通知(Legal Hold)、批量遮盖(redaction)、相似文档检测、邮件串合并与敏感信息(PII)检测等功能,并支持一键生产与安全共享。超过 1,500 家现代组织使用该产品,官方提供演示与免费试用,并承诺全天候支持。
Lawgeex 是一家专注于合同审查自动化的科技公司,利用专利的人工智能技术对法律文件进行智能化审阅与红线修改,从而实现快速且可量化的合同审查流程优化。平台能够将企业的立场、风险偏好与审查准则转化为可执行的数字化“法律手册”,在整个组织内保持一致性并自动与对方进行谈判与红线处理。Lawgeex 宣称可节省约 80% 的审查时间,使成交速度提升约 3 倍,并在成本上相比人工方式显著降低(示例数据包括 90% 的成本节省与 Forrester 报告的 209% ROI)。适合希望通过技术手段提升法务效率、减少人为差错并以数据驱动决策的企业和法务团队使用。
Google Safety(Google Safety Center)是谷歌面向公众推出的安全与隐私中心,旨在通过行业领先的技术和易用设置保护用户的个人数据与在线活动。该网站介绍了“隐私为本”“默认安全”“更安全的人工智能”等设计理念,列举了 Gmail、Maps、YouTube、Chrome、Photos、Wallet、Gemini 等产品在保护用户安全上的具体做法与防护机制。用户可以在此集中访问隐私设置、安全检查、广告设置和家长控制等工具,并了解如何保存、删除或自动删除个人数据。网站还定期发布与网络诈骗、AI 风险及家庭青少年上网安全相关的最新资讯和建议。
Fairlearn 是一个开源的社会技术驱动项目,旨在帮助数据科学家和工程师提升 AI 系统的公平性。项目提供以 Python 为核心的工具包用于评估和缓解模型在不同群体间的差异,并配套丰富的用户指南、API 文档和示例案例(如信用卡违约模型的公平性评估)。Fairlearn 强调公平不仅是技术问题,还涉及社会背景与制度性因素,鼓励社区贡献度量、算法和实践经验,并通过教程、Jupyter Notebook 示例与社区渠道(Discord、StackOverflow、GitHub 等)支持使用者快速上手与协作。可通过 pip 快速安装并在真实场景中应用其评估与缓解方法。
Corlytics 是一家专注于监管科技(RegTech)的公司,为受监管企业提供法规发现、理解、实施与合规证明的端到端解决方案。其平台强调对海量监管文本的法务级实时分析,涵盖多语言文本处理、法规义务提取、法规变更管理与红绿线比对等功能,帮助金融服务与医疗生命科学等行业客户将监管要求转化为可执行的内部政策与可审计的合规证据。Corlytics 还提供可视化仪表盘与审计追踪,支持合规证明与风险度量,拥有 ISO27001、SOC2 等安全与行业奖项认证,适合需要严谨合规治理与监管风险管理的组织。
SolasAI 是一家专注于公平与可解释性人工智能(Fair & Responsible AI)的软件公司,旨在降低模型的运营、合规、法律与声誉风险。平台通过“用 AI 修复 AI”的方式,自动检测模型中的差异与偏差,解释驱动差异的因素,并生成可行的替代方案与减缓措施,支持在不替换现有系统的前提下直接接入现有模型与数据流。SolasAI 还提供用于合规与决策的文档与洞见,帮助企业在监管与业务目标之间取得平衡,广泛服务于银行、保险、医疗与金融科技等行业。
ForHumanity 是一个致力于推动 AI、算法与自主系统独立审计与风险缓解的非营利组织。该网站展示了其认证体系(ForHumanity Certifications)、教育与培训中心以及知识体系(Body of Knowledge,BOK),并号召全球志愿者与贡献者共同参与以建立“可信基础设施”。平台提供面向多种角色的认证路径与课程,包含免费入门课程与后续付费的认证考试,还发布相关文章和项目以传播治理、伦理、隐私与安全等议题。总体上,ForHumanity 将审计、教育、标准制定与社区动员结合,旨在提升 AI 系统的透明性、公正性与可问责性。
DataEthics 是一家成立于2015年的欧洲非营利组织,由女性数据与人工智能伦理领域的领军人物发起,致力于推动以人为本的数据系统与技术发展。该组织通过跨学科研究、协作项目、倡导活动与公众意识提升,提供政策建议、工具包、白皮书和教育资源,帮助企业与公众理解并应对数据与AI带来的伦理挑战。其产品与资源包括“Data Ethics Tools”、“数字自我防护工具”、“Dataethics Readiness Test”和“数据伦理原则”等,面向企业、研究机构与公众。组织强调建设性与务实的变革路径,既注重学术研究,又通过实践案例、传播材料和培训促进社会层面的可持续改变。
AI Business 是一家面向全球人工智能产业的专业媒体与社区平台,致力于报道行业新闻、分析前沿技术趋势并连接企业与从业者。网站涵盖生成式 AI、Agentic AI、基础模型、数据中心、机器人、AI 政策等多个专题,提供深度报道、快讯、专栏、播客与活动信息,帮助读者在快速变化的 AI 领域中把握商业机会与风险。平台同时聚合行业专家、撰稿人和合作网络(如 Omdia、VisionAIres),并通过新闻通讯与播客将最新洞见定期推送给订阅者。无论是技术决策者、产品经理、研究人员还是关心 AI 监管与伦理的从业者,AI Business 都提供了具有实用价值的资讯与观点,便于企业制定战略、了解市场动态并拓展行业联系。
Creative Commons(创作共用)是一个国际性非营利组织,致力于为知识与文化的开放共享提供法律工具、技术支持与社区倡导。它以一系列标准化的**CC 许可**和公共领域标识,帮助创作者、教育者和机构在全球范围内更自由地授权和再利用作品,从而推动知识流通与创新。Creative Commons 支持超过二十年的开放运动,与维基百科、史密森等机构合作,使数十亿件图像、文章、教材和多媒体内容能够被安全且合法地分享与再利用。该组织同时提供检索工具、许可说明与政策倡导,帮助不同背景的使用者理解和应用开放许可的实践与价值。
UC Berkeley Law(伯克利法学院)是加州大学伯克利分校的法学院,网站展示了学院的新闻动态、学术项目、实务课程与社区活动,强调卓越的学术传统、充满活力的社区以及公共使命。首页汇集最新新闻、专题报道、播客与视频,展现教师、学生与校友在司法、公平、技术与气候等领域的影响力。网站还详细列出教学方向(如法律与科技、环境与能源、刑事司法等)、临床项目、公益与法律服务、研究中心与创新枢纽,便于申请者、学生与公众了解学院的教育与实践机会。通过活动日历、统计数据与社交媒体展示,网站强调实践学习、跨学科研究与公共服务的核心价值,适合希望参与社会变革与法律实践的读者了解伯克利法学院的整体实力与具体项目。
Copyright Alliance(版权联盟)是一个代表创作者、艺术家和版权持有者利益的非营利组织,致力于在政策、教育和公众舆论层面维护和推广版权价值。该组织通过提供丰富的教育资源、新闻更新、创作者故事和行动号召,帮助个人创作者了解其权利并参与公共政策讨论。网站包含政策倡导、版权教育材料、案例解析以及面向创作者的会员与参与渠道,旨在增强创作者社区的声音并影响立法与行业实践。通过聚合行业声音,Copyright Alliance 努力在数字时代保护创作的经济与道德权益。
未来隐私论坛(Future of Privacy Forum,简称 FPF)是一家致力于推动以原则为基础的数据实践和隐私治理的非营利智库。该组织通过研究、政策倡导、指南制定与利益相关方协作,关注新兴技术带来的隐私挑战与机遇。网站提供新闻稿、博客、议题专栏与研究简报,涵盖人工智能、广告技术、生物识别、健康数据、青少年与教育隐私等多个关键领域。FPF 还举办会议并发布政策建议与实践指南,旨在为学界、产业界与监管机构提供可操作的隐私保护路径。订阅月刊可获得最新动态与活动信息。
Data & Society(数据与社会)是一家独立的非营利研究机构,致力于研究数据驱动技术和社会之间的相互作用与影响。该组织通过发布研究报告、政策简报、观点文章与活动,探讨人工智能、气候、劳工、基础设施与信任等议题,并推动实践者、政策制定者与公众的对话。Data & Society强调学术独立性,不接受可能影响研究自由的资助,维护研究人员与项目的自治。其工作既有理论深度,也注重面向政策与公众的可操作建议,旨在为负责任技术治理提供证据与路径。
DAIR(Distributed AI Research Institute)是一家以社区为根基的独立研究机构,致力于通过定量与定性方法研究人工智能系统对社区的影响,并推动以被影响群体为中心的技术与治理实践。机构强调将实际生活经验纳入研究设计,以避免概念化或抽象化的假设,注重长期、严谨且有原则的研究流程。DAIR 的工作领域包括“数据推动变革”“揭示 AI 真正的危害”“替代技术未来”“AI 治理框架”等多个方向,并通过报告、项目与宣传推动政策与行业实践的改变。机构同时支持研究者的健康与可持续研究文化,倡导在工作之外保持家庭与社区连接,以提升研究质量与伦理性。
AI Now Institute 是一个聚焦人工智能治理、政策研究与公众权益的独立研究机构,致力于揭示 AI 产业中的权力结构与社会影响。该机构通过发布研究报告、政策工具包、行动计划与新闻通稿,向政策制定者、社区组织与公众提供可操作的建议与倡导策略。AI Now 强调对数据中心扩张、生成式 AI 的监管、核能与 AI 交叉问题等多领域的监测与干预,旨在重建公共对 AI 未来的掌控与问责机制。其作品兼具学术严谨性与社会行动导向,注重透明、问责与民主参与。
马克库拉应用伦理中心(Markkula Center for Applied Ethics)是圣克拉拉大学的伦理研究与实践机构,致力于把伦理学原理应用到技术、公共政策、商业和生物医学等现实领域。网站汇集了年度报告、专题聚焦、教学模块、会议记录和工具包等资源,特别关注人工智能伦理、互联网伦理与领导力伦理等议题。中心提供研究成果、案例研究、培训与付费咨询服务,并通过媒体评论与公开活动影响公共讨论与政策制定。无论是学生、教师、企业领导者或政策制定者,都能在该站点找到实用的伦理指南与教育材料。
The Gradient(中文常称“梯度”)是一家专注于人工智能与机器学习领域的在线出版平台,发布深度评述、观点文章、研究综述和技术解读。网站涵盖主题包括深度学习、模型可解释性、伦理问题、LLM 应用与机器学习理论等,面向研究者、工程师与关注前沿 AI 发展的读者。文章通常为长篇、来源可靠且注重思想深度,既有技术细节的阐述,也有政策与伦理层面的讨论,并提供作者信息、标签分类与社交分享功能,便于学术交流与传播。
Montreal AI Ethics Institute(蒙特利尔人工智能伦理研究所)致力于将人工智能伦理知识大众化,通过官方网站和旗下的“The AI Ethics Brief”简报(在 Substack 上拥有两万多订阅者)传播最新研究、政策解读与观点分析。网站提供专题报告(如 SAIER 系列)、政策专栏(AI Policy Corner)、研究摘要及行业洞见,内容涵盖社会正义、治理框架、劳工影响、数据与模型的现实成本等议题。平台汇集学术、政策与实务界的作者与学生贡献,既面向研究人员也面向政策制定者与公众,强调社区主导与可及性的伦理讨论与知识分享。
NYU 是纽约大学专注于数据科学教育与研究的学术中心,汇聚了跨学科的教师与众多学生,覆盖本科、硕士与博士多个层次的学位课程。中心强调理论与实践结合,研究领域涵盖高维统计推断、人工智能及其社会影响等前沿方向,并以开创性的课程(例如世界上首个数据科学硕士项目)著称。CDS 通过举办讲座、研讨会和研究发布,促进学术成果向产业界与社会的转化,同时保持国际化视野与多语种研究实践。无论是希望系统学习数据科学基础的本科生、寻求进阶研究与实践的硕士生,还是从事前沿科研的博士生,CDS 都提供了多样化的课程和研究资源来支持学生发展与职业成长。
OECD.AI 是经合组织(OECD)建立的人工智能政策与观察平台,致力于为政策制定者、研究机构与公众提供关于可信赖人工智能的政策、数据与分析支持。网站汇集了研究报告、测量方法、AI 事件监测(AIM)、工具与指标目录以及关于投资、治理与开放性等主题的专题内容。平台还整合了 GPAI 与经合组织成员国的合作成果,推动全球层面的报告框架与透明度实践,如 HAIP 报告与 G7 报告框架。通过数据驱动的仪表板、政策指南与案例研究,OECD.AI 帮助各方评估风险、制定规范并促进负责任的 AI 发展。
斯坦福法学院(Stanford Law School)官方网站汇集学校新闻、研究成果、学院项目与教学资源,为未来学生、在校生、教职工、校友及公众提供全面信息服务。网站突出学术研究与政策影响,展示法学院的中心与研究所、临床项目、联合学位与高级学位课程,以及面向司法实践与公共政策的多样机会。主页还整合播客、新闻稿、专题故事与社交媒体动态,便于用户了解最新事件、参与学术讨论并访问在线资源与申请信息。总体而言,该站点既是招生与教学展示平台,也是推动法学研究、传播政策影响力的重要窗口。
斯坦福大学的人本人工智能研究所(Stanford HAI)致力于推动以人为中心的人工智能研究、教育与政策制定,旨在将AI的发展与人类福祉紧密连接。HAI 汇聚跨学科研究、资助与奖助学金、教育项目及政策咨询,支持学者、学生与政策制定者共同探讨AI的社会影响与治理路径。其知名项目包括 AI Index、Global AI Vibrancy Tool 等数据可视化与评估工具,并通过会议、培训与出版物向公众传播研究成果与实践建议。作为斯坦福大学的重要机构,HAI 强调伦理、公平与透明,推动AI向增进人类能力与社会公平方向发展。