設定されてる法律や規則やルールに照らし合わせて正しいことをしていても(しているつもりでも)、違っているという指摘を受けることはままある。
勘違いや誤解によって起きる場合が多いが、それとは別に見解の相違という場合もある。
所詮法律や規則やルールとはその時々の人間が気分で作り、気分で設定してるからしょうがないといえばしょうがない。
そして、この見解の相違ということは科学や医学の場でもよく起きる。
研究や調査をどんなに重ねても肝心なことが分からないために常に複数の仮説が成り立ち得るような場合だ。
見解の相違は派閥や徒党を生み利害を共有するため、簡単には見解を改めたりしない(できない)。
見解の相違が争いに発展すると、見解そのものの中身や質から離れた争いになりやすく、論破という口喧嘩合戦や『それってあなたの感想ですよね』と突き放したりするようになる。
これって人間同士だから起きるのだろう。
ではAI同士だったら見解の相違はどのように処理するのだろうか?
ChatGPTに聞くと、AI同士の場合には感情やエゴが無いので主観的な自説の押し付け合いにはならないが、プログラムとデータに依存するのでプログラム次第でありデータ次第で着地点が見出せなくなることはあり得る。
というような回答だった。
人間に個性があるのは誰でも理解してるが、AIにだって個性はあるのだ、AIの個性はプログラムとデータで決まるという意味では最初は人間に依存するのだ。
じゃあ、人間は何に依存してるのか、AIの場合のプログラムやデータに相当するものとは?
アンガーマネジメントのために、ムカつく相手に遭遇した場合にはその人に施されたプログラムやデータを想像しながら見下すというのは効果があるかもしれない。
これができればムカつきそうな時にムカつかないという回避に役立つかもしれない。