打开盒子
Posted: Sat Feb 22, 2025 3:11 am
向普通用户解释每个人工智能系统可能很困难,这是可以理解的,但我们应该努力确保人工智能系统的行为能够得到解释,以便与技术建立信任关系。透明度在以下领域尤其困难: 机器学习 (ML) 和 深度学习(DL) 模型。事实上,机器学习通常被定义为“黑盒人工智能”,因为其算法经过训练,使用推理而不是实际知识来识别模式和提取信息。机器学习模 智利电话号码数据 型必须能够访问大量数据才能保持持续的训练和学习,但只要其内部机制隐藏在黑盒中,就无法查明错误或有偏见的结论的原因。这需要从头开始重新训练整个系统,这既昂贵又耗时,而且通常令人沮丧。
同样,深度学习很难被渗透,因为它创建了一个无需人工监督就能学习的人工神经网络。这使得它能够应对更困难的挑战,比如检测欺诈或洗钱,但它也产生了一个高度复杂、数据饱和的系统。
混合方法
然而,新形式的人工智能开始揭开层层透明度。例如,符号人工智能利用高级、“人类可读”的逻辑和知识表示。它是新兴自然语言理解 (NLU) 平台的关键组成部分,该平台模仿理解正常语音或日常语言的能力。
同样,深度学习很难被渗透,因为它创建了一个无需人工监督就能学习的人工神经网络。这使得它能够应对更困难的挑战,比如检测欺诈或洗钱,但它也产生了一个高度复杂、数据饱和的系统。
混合方法
然而,新形式的人工智能开始揭开层层透明度。例如,符号人工智能利用高级、“人类可读”的逻辑和知识表示。它是新兴自然语言理解 (NLU) 平台的关键组成部分,该平台模仿理解正常语音或日常语言的能力。