- 周柏乔;
有人说ChatGPT智能处理器只会吐出话语,不(会)说话。尽管它的话有意思,而且可以被理解,但理解它的话真的在于挖掘它的“心思”或“心意”吗?假定与其对话的自然人都认为ChatGPT没有“心思”或“心意”,却发现对话有意思,起码有助于一般人通过ChatGPT的话语进一步认识自己的“心思”或“心意”,这是否意味着 ChatGPT是个语言使用者,和人类的语言使用者一样,可通过与人们的对话帮助自然人认识自己的想法?如果是这样,就会出现矛盾:它不(会)说话却成为语言使用者。借用蒯因的翻译理论、戴维森的诠释理论以及维特根斯坦的后期论述,可以说明自然人有哪些语言本领,AI工程当予以实现,ChatGPT智能处理器方可媲美自然人的语言使用能力。
2024年04期 v.15;No.86 3-16+196页 [查看摘要][在线阅读][下载 1133K] [下载次数:369 ] |[网刊下载次数:0 ] |[引用频次:1 ] |[阅读次数:0 ] - 程瑞;伏其秦;
德雷福斯在批判人类智能的认知主义模型的基础上,提出了其著名的技能习得模型,并在表征意向性之外增加了运动意向性的预设。他主张“表征意向性以运动意向性为基础”,并以此指导其人工智能哲学观。但在技能习得模型中,表征意向性与运动意向性之间存在根本的断裂,导致德雷福斯的技能习得模型面临内在的矛盾。这种矛盾源于德雷福斯坚持一种海德格尔式的类人人工智能理解。通过反思与悬搁这一人工智能理解,可以重新澄清表征意向性与运动意向性的关系,弥合技能习得模型中的断裂,并有助于揭示一种对人工智能与人类智能关系的新理解。德雷福斯与技能习得模型的技术哲学意义与这种新的关系理解息息相关。
2024年04期 v.15;No.86 17-31+196页 [查看摘要][在线阅读][下载 1132K] [下载次数:459 ] |[网刊下载次数:0 ] |[引用频次:0 ] |[阅读次数:0 ] - 张钺;
人工智能算法技术不断改变着人们的生活方式和工作模式,使得人们越发重视算法技术在价值观、公平公正和权力关系中的影响。现有讨论主要集中在两条路径下:一是技术发展路径下认知能力的提升,二是社会干预路径下法律和道德的约束。然而这两条路径本质都是聚焦于算法的“自我”凝视,缺乏将算法视为“社会化”个体的思考。算法在话语权、社会交往和知识生产方面的影响,揭示出其融入社会结构中的价值。因此,发挥算法作为社会参与者的积极作用,需要挖掘算法促进社会协作的潜力,形成对社会多元性的维护。
2024年04期 v.15;No.86 32-42+196页 [查看摘要][在线阅读][下载 1076K] [下载次数:785 ] |[网刊下载次数:0 ] |[引用频次:2 ] |[阅读次数:0 ]