为了说明该模型,同时为了简化,可以选择两个Agent 正在就某产品进行交易,交易议题为两个,该交易通过劝说的方式实现。先作如下假设:(1)实验中拟定的数据及计算结果最多精确到小数点后两位。
(2)买卖双方为Agent A 和Agent B。对于买方Agent A 来说,希望价格越低越好,交货期越短越好,因此,Agent A 对价格和交货期的期望值都是越低越好;对于Agent B来说,则正好相反。
(3)双方的议题集相同,包括价格和交货期,均为I ={IP,ID}。
(4)双方的策略集相同,包括威胁和奖励,均为S ={T,R}。作为劝说策略,威胁和奖励在人类劝说中最为基本和常见,因此在这里被采用,以利于研究。
(5)Agent A 和Agent B 对各议题的权重集以及集合中各元素的关系如下:
(6)Agent A和Agent B对各议题的值的集合为和
(7)对每个Agent 的每个议题,都有多个相同值,取其中的两个。例如,对于Agent A,有价格值
(8)Agent A 和Agent B 对各议题所取的值的集合的偏好顺序为以Agent A为例,显然有
(9)Agent A 和Agent B 对各策略的权重集以及集合中各元素的关系如下:
(10)Agent A的保留值、阈值和评价值分别为RA、QA 和UA,Agent B的保留值、阈值和评价值分别为RB、QB 和UB。
表7-1和表7-2分别为Agent A和Agent B在劝说过程中保持不变的各项值及相应权重。
表7-1 Agent A 在劝说过程中保持不变的值和相应权重
表7-2 Agent B 在劝说过程中保持不变的值和相应权重
表7-3和表7-4分别为Agent A和Agent B在劝说过程中关于各议题的初始值、权重和初始偏好值。
表7-3 Agent A 在劝说过程中对各议题的初始值、权重和初始偏好值
表7-4 Agent B 在劝说过程中对各议题的初始值、权重和初始偏好值
在劝说过程中,根据劝说不同而不同,其他值保持不变,且RA ≤RB。(www.xing528.com)
威胁的劝说力度通常比奖励大,因此,如评价值与保留值之差大于阈值,Agent 将选择威胁生成劝说,否则选择奖励生成劝说。
Agent A 和Agent B 的劝说过程如下:
(1)Agent A 选择价格初始值中较为偏好的4(初始偏好值为0.27)和交货期初始值中较为偏好的3(初始偏好值为0.33),生成初始提议向Agent B提出,该初始提议为
(2)Agent B对该提议进行评价,相应计算为
UB = 0.8×4 + 0.2×3 = 3.8
由于UB <RB,因此,不接受该提议,同时按下一步生成相应劝说向Agent A提出。
(3)根据评价机制,Agent B计算得
(| UB - R B |= 0.4)>(QB = 0.3)
相应地,Agent B 将选择威胁策略,同时选择自身关于价格初始值中较为偏好的6(初始偏好值为0.51)和交货期初始值中较为偏好的5(初始偏好值为0.39),向Agent A 生成并提出劝说
(4)在接收到以上劝说后,Agent A 对该劝说做出相应评价,评价值的计算为
UA = 0.5×6 + 0.5 ×5 = 5.5
与保留值比较后有UA >RA,因此该轮劝说不成功。这时,Agent A需要根据该劝说进行信念修正。这里以价格值为6 为例,计算为
关于信念的具体修正值如表7-5所示。结果表明,Agent A接收到该劝说后,对价格值中较为偏好的仍然是4,对交货期值中较为偏好的却不再是3,而是修改为5。此外,由于(|UA -RA|= 1.3)<(QA = 1.5),因此,Agent A选择奖励策略,向Agent B生成并提出劝说
表7-5 Agent A 在接收到Agent B 第一次劝说后的偏好修改值
(5)在接收到以上劝说后,Agent B根据评价机制中的计算公式,计算出对该劝说的评价值为
UB = 0.8×4 + 0.2×5 = 4.2
此时有UB = RB,因此劝说成功,完成交易,最终交易结果为价格值是4、交货期值是5。
为了验证以上模型和例子,可以选择Jade 作为开发平台,Java 作为开发语言,将Agent A和Agent B分别称为BuyerAgent 和SellerAgent,实现劝说系统。以前者为例,主要代码如下:
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。