論説室の苦悩透ける
だが便利なものは、得てして落とし穴があるものだ。その是非を主要紙が論じた。10日付日経社説では「功罪ふまえたAI規範へ冷静な議論を」と、いかにも黒白つけ難い難しいテーマに手を焼いている論説室の苦悩が透けて見える。
同社説では「生成AIは人間の仕事や創造活動の生産性を飛躍的に上げる可能性がある。半面、子供が宿題に使って学力向上が滞ったり、真偽不明の情報が大量に流布したりするなど、従来はなかったような現象が起こるリスクも潜む」と、生成AIのメリットとリスクを簡潔に説明した上で「足元の議論では推進派も慎重派も、新技術に過剰反応しているきらいがある。冷静に議論したい」と分別のありそうな大人の姿勢を強調した。
だが、これは日経とて結論を出せない問題への逃げ口上と受け取られても仕方のない論説だ。ただ同社説で唯一参考になったのは、「懸念の背景には、生成AIが文章や画像を生み出す『思考回路』が開発者自身にも分からないという問題がある。何を入力すると何が出てくるのか制御も予測も不可能で、再現性も低い。研究者は性能向上だけでなく『思考回路』の解明にも尽力してほしい」と指摘している点だ。
東京の8日付社説「対話型人工知能 共存を慎重に探りたい」も日経同様、煮え切らない論説を展開した。
それでも同社説は「チャットGPTに『自らの欠点は何か』と尋ねたら『情報の正確性に限界がある』『創造性に限界がある』『誤解や偏見を持つことがある』『意思決定を行うことができない』などと答えた」という興味深いエピソードを書き込んでいる。



