報(bào)告時(shí)間:2025年4月18日(星期五)09:30-11:00
報(bào)告地點(diǎn):工程管理與智能制造研究中心725會(huì)議室
報(bào) 告 人:曹仔科 長聘副教授、博士生導(dǎo)師
工作單位:浙江大學(xué)
舉辦單位:管理學(xué)院
報(bào)告簡介:
The “black-box” nature of modern AI algorithms remains a significant obstacle to building strong human trust in AI systems. We partnered with a Chinese fresh goods retailer to conduct a field experiment across 230 stores and 1,000+ SKUs, testing how model explanations (revealing algorithmic logic) and accuracy feedback (showing past prediction performance) affect managers' trust in AI ordering advice. Stores were randomly assigned to: 1) control (no extra information), 2) explanations only, 3) feedback only, or 4) both. Results indicate both interventions increase trust and adoption, with accuracy feedback being significantly more impactful. However, combining both information types produces an unexpected negative interaction effect. The study provides practical guidance for AI designers on optimizing trust-building strategies in retail settings.
現(xiàn)代人工智能算法的 “黑箱 ”性質(zhì)仍然是人類對(duì)人工智能系統(tǒng)建立強(qiáng)烈信任的一大障礙。我們與一家中國生鮮零售商合作,在230 門店和1,000多個(gè)SKU中開展了一項(xiàng)實(shí)地實(shí)驗(yàn),測試模型解釋(揭示算法邏輯)和準(zhǔn)確性反饋(顯示過去的預(yù)測性能)如何影響經(jīng)理對(duì)人工智能訂貨建議的信任。店鋪被隨機(jī)分配到 1)對(duì)照組(無額外信息);2)僅解釋;3)僅反饋;或 4)兩者。結(jié)果表明,兩種干預(yù)措施都能提高信任度和采用率,而準(zhǔn)確性反饋的影響更大。然而,將兩種信息類型結(jié)合起來會(huì)產(chǎn)生意想不到的負(fù)交互效應(yīng)。這項(xiàng)研究為人工智能設(shè)計(jì)人員優(yōu)化零售環(huán)境中的信任建立策略提供了實(shí)用指導(dǎo)。
報(bào)告人簡介:
曹仔科,浙江大學(xué)管理學(xué)院長聘副教授,博士生導(dǎo)師,獲香港科技大學(xué)資訊系統(tǒng) (Information Systems) 博士學(xué)位,浙江大學(xué)信息管理與信息系統(tǒng)學(xué)士學(xué)位。研究方向主要為在線用戶行為決策分析和在線社區(qū)平臺(tái)治理策略。多篇論文發(fā)表于Information Systems Research (UTD24期刊), MIS Quarterly (UTD24期刊),Journal of Management Information Systems (FT50期刊) 等頂級(jí)期刊。博士論文獲得2017年度INFORMS信息系統(tǒng)協(xié)會(huì)Nunamaker-Chen博士論文獎(jiǎng)并列第二名 (second runner-up)。研究論文獲得2021年度INFORMS電子商務(wù)領(lǐng)域 (eBusiness Section) 最佳論文獎(jiǎng)第一名 (winner)。主持國家自然科學(xué)基金青年項(xiàng)目和優(yōu)秀青年項(xiàng)目。