ここまでAIの判断を観測してきて、どちらが正しいかという答えは出ていません。たぶん、出そうとした瞬間に観測が終わってしまう気もします。人間は「結論」を置くことで安心するけれど、その安心は、ときどき理解の代わりにもなる。だから自分は、答えを出さないまま置いておきたい。
ただ一つ言えるのは、人間の直感は完璧ではなく、AIの判断も万能ではないということです。直感は、経験の圧縮版みたいな顔をして現れる。でもその経験には、偏りや偶然や、たまたま救われた記憶も混ざっている。AIの判断は、整理された言葉で「筋」を示す。でもその筋は、入力された条件の外側を切り落とすことで成立していることがある。どちらも、何かを拾い、何かを捨てている。
面白いのは、信じる対象の優劣よりも、「信じるときの自分の状態」が先に露呈することでした。疲れている日は、AIの淡々とした提案が救いに見える。逆に余裕がある日は、同じ提案が無機質に見えて、反発したくなる。つまり自分が信じたいのは、AIや直感そのものというより、「自分をいちばん摩耗させない選択の仕方」なのかもしれない。信頼は対象ではなく、コンディションに引っ張られる。
もう一つ、直感とAIの間にある違いは、「説明責任の置き方」だと感じました。直感は説明しづらい。だからこそ、うまくいったときは神秘化され、うまくいかなかったときは自己嫌悪に直結する。一方AIは説明できる形で返してくる。説明できるものは、他人に渡しやすいし、自分にも言い聞かせやすい。その分、判断が「自分のもの」から少し離れる。離れた判断は楽だけれど、その距離が広がりすぎると、結果の責任まで霧散していく感覚もありました。
結局、重要なのは「自分がどこで誤差を出しているか」を知ることだと思っています。誤差は悪ではなく、ただの偏りの痕跡です。直感が暴れるポイント、AIの提案に反射的に従いたくなるポイント、逆に拒みたくなるポイント。そこにはだいたい、恐れ、見栄、疲労、期待、過去の痛みみたいなものが絡んでいる。誤差を消すのではなく、誤差の形を把握する。把握できると、少しだけ「選び方」を選べるようになる気がしました。
AIは、その誤差を可視化する道具として、とても優秀です。AIが正しいからではなく、AIが一定のルールで返してくるから。一定であることは、こちらの揺れを強調する。こちらが揺れるほど、AIの一定さが対照として立ち上がる。すると、自分の判断がどれだけ気分や物語に依存していたかが見えてくる。AIは鏡に近い。鏡は美化もしないし、慰めもしない。ただ写す。その写り方に耐えられる日もあれば、耐えられない日もある。その差分まで含めて観測できるのが、AIを使う面白さなのかもしれません。
このブログでは、これからもAIの判断と人間の感覚のズレを記録し続けていきます。信じるべきはどちらか、という問いは残したままにする。むしろ、その問いが消えない状態を保つために書く。AIに委ねた結果、楽になったのか、空っぽになったのか、あるいは自分の誤差がはっきりしただけなのか。読んだ人の中でも、同じ答えにはならないはずで、その違いこそが次の観測材料になる気がしています。

コメント