【CDIメディカルEye 】アルゴリズムっておいしいの?

食べログ使ってますか?

皆さんは、食べログの “点数”をどのくらい気にしていますか?

私の場合は…食べログをけっこう利用します。お店は星の数ほどあるのに全然知っているお店はない、自分の舌にもたいして自信がない、という残念な実力であることから、「まずちょっと点数順に並べてみようかな…」となることはたいへん頻度の高いパターンであり、「点数がいいからおいしいってわけじゃないよね」などと言いながら、結局のところ点数だってまあまあ気にしている小市民なのです。

この食べログの点数を巡って訴訟がありました。食べログがお店の「点数の付け方=アルゴリズム」を変更したことで不当に点数が下がった、という原告韓流村の訴えによるものですが、東京地裁は運営するカカクコムに対して損害賠償の支払いを命じました。評価のアルゴリズムに焦点があたったおそらく初の裁判ということで興味深いものがあります。

ご参考:当社に対する訴訟の判決に関するお知らせ(株式会社カカクコム プレスリリース 2022.6.16)

プラットフォームのアルゴリズムと独占禁止法

関連するニュース記事はたくさん出ていますので詳細は省きますが、食べログなどの“プラットフォームビジネス”の事業活動が独占禁止法にあたるかどうかが1つの争点となっていて、公正取引委員会が意見書を出したことでも注目されました。判決では、アルゴリズムを一方的に変えたことは「優越的地位の濫用」にあたるので“賠償しなさい”となり、食べログの新しい採点方法そのものは「差別的取扱い」にはあたらないので“新採点方法を使ってOK“という判断になっています。

また、裁判の過程においてアルゴリズムが開示された点も注目です。食べログ側はお店の不正行為の防止などを理由に開示をしない方針でしたが、評価方法が不透明である(から不当な取り扱いをされているのではないか?)などの主張に対して裁判内でアルゴリズムの開示を行いました。しかしアルゴリズムを公開することにはやはり賛否議論があるようです。広く利用され、影響力の大きいプラットフォームですので、ある種の“フェアさ“が必要だよね、と思う反面、魅力的な評価の仕方=アルゴリズムを生み出すことこそが”価値の源泉“のはずだよね、とも思います。やはりある種のルールづくりが必要なのではないでしょうか。

ちなみに、食べログ側は判決を不服として即日控訴していますので、まだこの話は決着したわけではありません。

プラットフォームの透明性確保 -欧州における法整備

欧州ではオンラインプラットフォームの公正性について法整備がすすんでいます。EUで2020年7月に施行されたP2B規則(EU法)では、オンライン仲介サービス提供者(ここでいう食べログ)はランキングを決定する主なパラメータとそれが重要である理由について事業者(ここでいう韓流村)に示さなければならないとされています。計算方法であるアルゴリズムそのものの開示は求めない、というのがミソで、ウチはこういうところを“大事なポイント”だと思ってやっていますよ、ということをお互い納得してやってね、ということですね。

これは先に施行された一般データ保護規則(GDPR)からの一連の流れで整備されているものであり、米国でも米国データプライバシー保護法(ADPPA)の議論がすすめられていますので、今回の判決を機に国内でも法整備が議論されることになると思われます。

参考:総務省 学術雑誌『情報通信政策研究』デジタルプラットフォーム規制における透明性に関する 規定の検討 -EU 法と日本法の比較を通じて

アルゴリズムといえばAIです

さて、そろそろヘルスケアのお話も、ということで、アルゴリズムといえばAIですね。医療分野におけるAI活用の議論でも「ブラックボックス問題」がありました。どう判断しているか分からないAIの判断を信用してもよいものか、といった議論がされる中で、2018年に厚生労働省は「AI は診療プロセスの中で医師主体判断のサブステップにおいて、その効率を上げて情報を提示する支援ツールに過ぎない」としています。最終的に医師が判断してね、ということですが果たしてこれでよいのでしょうか。

2022年現在、国内でもけっこうな数の「画像診断支援AI」が薬事承認・認証されています。また今年の診療報酬改定で放射線科では限定的ですがAIの使用に画像加算が付くことにもなりました。まだまだこれからではありますが、実際に使ってみて「やっぱり便利だよね」という声もチラホラと聞こえてきはじめています。ただし普及となると色々難しい面も依然としてあるようです。その理由の1つが「結局ドクターがみないといけないから二度手間なんだよね…」というものです。AIを使う意味として「効率化」を考えるのであれば、やはり何かしら自動化しないことにはインパクトが小さいよね、となってしまいます。米国では“AIが診断してOK”となっている事例もありますし、AIによる画像診断の精度はすでに一般的な医師と変わらないレベルに達しつつあると思います。ある種の割り切りも含めて“ここまではAIに任せてみよう”といった考え方も必要な段階なのではないかと思います。

もっといえば、画像x AIの技術にはより大きな期待もされています。画像診断支援のAI開発はこれまで多くの場合、「専門医による診断」を先生として開発されてきました。このやり方の場合は “専門医より賢くなる”ことが構造上難しいわけですが、例えばその画像の人が実際5年後10年後どうなったのかといった“本当の正解”の情報を先生として、あるいは遺伝子情報などと組み合わせてアルゴリズム開発を行うことによって、”専門医より賢いAI“や”これまでになかった判断をするAI“が出来るようになるかもしれません。実際にこうした思想を基にした開発はすでに行われていて、例えば医薬品のR&Dの現場などでは利用されはじめているようです。

第三次AIブームは一過性に終わらずに、いまも日進月歩であり、また今回は社会実装が着実に進んでいるように思います。医療分野のAIもいつまでも「支援ツール」に留めておかずに、定義の見直しのようなところの議論がすすむことに期待をします。はやくやらないとまた世界から遅れを取ることになるんじゃないかと思ってみている…だけなのが残念ながら小市民なのですが、医療AIのテーマにはいちコンサルタントとして引き続き積極的に取り組んでいきたいと思います。

文責:伊藤 愛

伊藤 愛(株式会社CDIメディカル 執行役員)

大阪大学大学院薬学研究科修士課程修了(薬剤師)。京都大学大学院医学研究科修士課程修了。

商社、独立系ベンチャーキャピタル、ヘルスケア・バイオベンチャー企業、経営コンサルティングファーム等を経て現職。ライフサイエンス・ヘルスケア分野を中心に、中期経営戦略等、新規事業戦略、海外展開、オープン・イノベーション戦略等、戦略立案から実行支援を含むコンサルティングを実施。