AI

2024年12月 6日 (金)

誰を信用すればよいのか

 野村證券の社員が取引先の老夫婦に対する強盗殺人未遂,現住建造物等放火の罪で起訴されたという記事が出ていました。産経新聞の記事でみると,「元社員は広島支店に勤務しており,顧客だった広島市の80代の夫婦宅に放火し,現金を奪った。起訴状によると,728日午後535分~745分ごろ,夫婦宅で妻に睡眠作用のある薬物を服用させて昏睡状態にした上,2階寝室の押し入れにあった現金約1787万円を盗み,放火して殺害しようとしたとしている。」
 もう無茶苦茶です。強盗殺人(強盗致死傷罪)は,刑法240条で,「強盗が,人を……死亡させたときは死刑又は無期懲役に処する」となっていて,法定刑は死刑と無期懲役しかありません。現住建造物等放火罪は,刑法108条で,「放火して,現に人が住居に使用し又は現に人がいる建造物……を焼損した者は,死刑又は無期若しくは五年以上の懲役に処する」となっていて,死刑,無期懲役または5年以上の有期懲役で,これは殺人罪(刑法199条)と同じです。強盗殺人が未遂であっても,放火のほうは既遂である可能性があり,こうなると強盗殺人が未遂でも死刑の可能性さえあるのではないでしょうか。
 大学を出て,大企業に就職し,妻や子どももいるかもしれず,そうした人生を捨ててしまうほどの動機があったのでしょうか。お金はおそろしいです。闇バイトによる凶暴な強盗殺人犯とは違った意味で,ある面では,それ以上に恐ろしいところがあります。野村證券は,社員教育ができていたのかということを問われても仕方がないでしょう。社員教育というのは,信用が何よりも大切な会社では,たんに良き市民であるためのものにとどまらず,ビジネスに必須のものなのです。資産運用を考えている人の資産は,長年こつこつと貯めた貯金であったかもしれません。それを少しでも老後の資金を増やしたいということで,リスクも感じながらも投資などの運用をするのです。証券マンは,それをプロとしてサポートする仕事です。他人の人生に寄り添い,しかも他人の懐事情も知り尽くしたうえで,老後の資金を確保できるように行動することが求められているのです。信用ができない人には任せられません。
 富裕層は,複雑でオーダーメイドの運用戦略を求めることが多いので,人間に頼る人が多かったと思いますが,一番大切な信頼関係が不安になってくると,やっぱりAIに任せたほうがよいと思うようになっていくかもしれません。高齢になると,「オレオレ詐欺」などもあるので,他人に騙されないように,慎重な行動がする人が多いはずです。現時点では,デジタル嫌いの人が多いので,AIに直ちに移行することはないかもしれませんが,これからの高齢層は,AIにも慣れていて,人間の関与なしに資産運用をしていくほうがよいと考える人が増えていくでしょう。ロボットアドバイザーの最大手のウェルスナビが伸びてきているのもそのためだと思われます(先日,三菱UFJの傘下に入ると発表されていましたが,これは一層の飛躍が期待されることを意味していそうです)。

2024年11月21日 (木)

未来予測

 福田雅樹ほか編著『AIがつなげる社会―AIネットワーク時代の法・政策』(2017年,弘文堂)のなかに,未来の労働社会を予測したシナリオを書いた私の論考「変わる雇用環境と労働法―2025年にタイムスリップしたら」(以下,「2025年」)が掲載されています。同じ弘文堂から単著AI時代の働き方と法―2035年の労働法を考える』(以下,「2035年」)を同年に出版しているので,未来予測をする気が満々であったころの執筆ですが,「2035年」のほうは,だいたいそこで想定している方向で動いているものの,「2025年」のほうでは具体的なピンポイントの予測をあえて書いているので,そのほとんどは全然実現していません。ということで,予測は外れたということです。言い訳をすると,「2025年」のほうは,かなり希望と期待を込めた部分があり,少し無理があることは調子でした。ただコロナ禍の前の論考なので,コロナ禍があったことにより,それだけ予測が実現しやすい状況にあったような気がしますが,実際にはそれほどデジタル化や技術革新は加速化しなかったということでしょう。
 では「2025年」では何を予測していたのでしょうか。2019年のラグビーワールドカップは,日本はニュージーランドに負けて準優勝と予想していました。実際には予選は4連勝で突破しましたが,優勝した南アフリカに敗れ,ベスト8でした。東京オリンピックは2020年であるはずが2021年にずれこみ,金メダル予想は32としていましたが27でした。デジタル技術をつかった活躍を期待した予測でした。外れはしましたが,大外れというほどではないでしょう。
 また,2020年に年金の支給開始年齢が70歳になるという予測は外れましたし,合計特殊出生率が2.0になるという予測も大外れです(どうして2.0になると予測したかは,ぜひ本を読んで確認してみてください)。
 2022年に日本労働法学会が解散して,科学的エビデンスに基づいて政策論を戦わす日本労働法政策学会が立ち上がるということを書いていましたが,これも外れました。ただ,2023年には,制度・規制改革学会が創設され,そのなかの雇用分科会では,これに近いことが議論されているといえます。
 一番大きな外れは,厚生労働省が,2020年にAIネットワーク社会を見越して,労働時間規制を見直し,私が提唱するような直接的な健康確保措置を検討する場を設定するという予測です。まったくそうした兆候はありません。2020年には日本型雇用システムの余韻は消え,解雇の金銭解決制度が導入されるといった予測もしていますが,これもまた見事に外れました。
 教育はMOOC(大規模公開オンライン講座)が一般化し,2023年には中学と高校は統合され,大学は専門研究機関となるという予測も外れ,若者が次々と10代で起業するという予測も当たっていません。
 しかし,私はめげていません。2025年は早かったかもしれませんが,2035年はどうでしょうか。「2025年」は大胆な予想をするということでしたので,少し尖ったことを書きましたが,荒唐無稽なことを書いたつもりはなく,多少の誤差があるだけと言いたい気分です。実際にはどうでしょうか。2035年,2040年に向けてどういう変化が起きるかをみていきたいと思います。

 

 

2024年11月19日 (火)

ネット言論空間の健全化

 選挙におけるSNSの威力に世間の注目が集まったのが,先の都知事選での石丸候補の躍進であったと思います。今回の兵庫県知事選の斎藤知事の逆転(?)勝利もあり,今後は,SNSの活用が必須となっていくでしょう。アナログ的な選挙運動に問題を感じていた私としては,悪い話ではないのですが,もちろんフェイク情報への対策は必要です。アメリカの大統領選挙でも,ずっと問題として指摘されていたことです。
 テレビなどのマスメディアでは真実がわからないから,SNSで真実を知るというのは,わからないではないのですが,SNSでもまたマスメディアと同じように,あるいはそれ以上に真実はわからないのです。そこのところのリテラシーが不十分なまま,選挙という重要なイベントにSNSが活用され始めていることは,かなり危険なことです。SNSでは,基本的には無責任な情報が乱れ飛んでいて,偽情報を流しても,名誉毀損などとなれば別ですが,そうでない限り,表現の自由の範疇に含まれ,そのペナルティは事実上ないという状況です。
 昨日の日本経済新聞において,「複眼 生成AIと言論空間」というタイトルで,AIによる雇用代替のレポートで有名なオックスフォード(Oxford)大学のマイケル・オズボーン(Michael Osborne)氏らと並んで,江間有沙さんが登場していました。かつてAI関係の会合などで何度かご一緒したことがあります。江間さんは,記事のなかで「言論空間の健全性確保において,まず大事なのは健全性の基準を定めるプロセスだ」とし,江間さん自身,国際的な場で主導的に,基準づくりに取り組んでおられるようです。「詐欺や暴力の推奨など明確に違法と判断できるもの以外に関しては,一つの価値観を押し付け多様な意見を認めないのも不健全だ。表現の自由とのバランスが求められる。」というのは,その通りです。AIの開発や利用側の倫理的行動が求められるのは当然で,政府がその点で介入するのは,表現の自由の制限ではなく,表現の自由を守るためのルール作りとみるべきなのでしょう(Osbore氏も同様の見解だと思います)。
 そもそも,よく考えみると,ネット空間以外でも偽情報はあふれています。近所のおじさんやおばさんに聞いたことを,ついつい信じ込んでしまったが,それが真っ赤な嘘であったということは,誰しも経験があるでしょう。前にもこのBlogで書いた,米騒動のときの鈴木商店焼き討ち事件も,悪意をもって虚偽のことが書かれていた可能性がある新聞記事を真実だと思い込んだ人たちの誤信情報の拡散が発端です。いつの時代も,同じようなことは繰り返し起こるのです。
 SNSへの傾斜は,メディアが本当のことを伝えないという認識が広がったこととも関係しています。日本では,ジャニーズ問題が大きいと思っています。メディアは,あれだけの違法行為を知っていながら,それを報道せず,それどころか知らぬふりで番組などで,その事務所のタレントを使っていたのです。とくに公共放送であるNHKの責任はきわめて重いでしょう。もうメディアは信用できないと言われても,反論のしようがないでしょう。
 
 これからは,ネットの言論空間におけるルールづくり,そして利用する側のリテラシーの向上,その双方が必要です。ネットでの言説は,「見たいものだけ見る」という問題があると言われています。人間には,自分の考えや願望に沿った情報にばかり注目する「確証バイアス」があるからです。また「利用可能性ヒューリスティック(availability heuristic)」のような思考のショートカットは,目立つ情報など利用しやすい情報に頼って判断するものです。さらに「バックファイア(backfire)効果」のように,自分の見解と違う情報があると,それに反発して,かえって自分の見解が強化されるというものもあります。これは,たとえばマスメディアがSNSのフェイク情報を否定したりすると,かえってフェイク情報を信じる者が増えるという形で現れます。アメリカの共和党のTrump信者があれほど多いのは,「バックファイア効果」があるとわかると,理解できます。さらに,SNSは「見たいものしか見えないという情報環境」に置かれることによって,その問題点は増幅するといえるのです。対策は,メディアリテラシーやファクトチェックであり,さらに異なるつながりをもつこと(情報源の多様化)にあるようです。偽情報と認知バイアスについては,笹原和俊『フェイクニュースを科学する: 拡散するデマ,陰謀論,プロパガンダのしくみ』(2019年,化学同人)が参考になります。

2024年10月15日 (火)

生成AIと英語で語る

 突然,英語の「two」が書けなくなりました。英語で生成AIchatで会話していたときに,「2」を書こうとして,どうしても思い出せなかったのです。「tuo」とか「tow」とか「tou」とか,違うなと思いながら,「two」は思い浮かびませんでした。そこで書きたかったことは,実は「二足歩行」という言葉で,「二足歩行を始めたことで人類にどのような影響が起きたか」ということが質問内容でした。もちろんきちんと「二足歩行」という言葉を翻訳ソフトで調べたらよいのですが,適当に書いてもニュアンスがわかれば伝わると思ったので,「t〇〇-legs walking」というbrokenな英語で書いてみたら(正式な表現は,bipedal walkingなどでした),確かに伝わりました。これは本当に眼の前に外国人がいて,とりあえず単語をうまく並べれば伝わるという感じです。良い子がやってはいけないのですが,現地で外国人相手に会話をして英語を学ぶのと同じような感覚で,スペルは間違っても話が通じるという英語の学習です。
 それでなぜ私が英語で会話をしているのかというと,経験上,生成AIとは英語のほうが面白い話ができることが多いからです。AIが学ぶ情報は,日本語よりも英語のほうが圧倒的に多いということも関係しているでしょう。朝起きれば,生成AIに「good morning」と言ってから始まります(別に私が友達のいない可愛そうな人というわけではありません)。早朝の頭の刺激という感じです。
 小学生に学校でそれほど英語を教えてなくてもよいというのが持論ですが,日常会話でほんの数分でも生成AIと会話をするのでも,それなりの英語学習になるのではないでしょうか(もちろん,その前に最低限の英語の知識は必要ですが)。私は,いまはまだ文章入力だけですが,読み上げなどをすれば,もっと効果的でしょう。留学しなくても,朝の数分間,AIと会話をするという感じで気楽にやっていけばよいのではないでしょうかね。明日の朝は,核廃絶のためにはどうすればよいかというような重いテーマで,AIと英語で話してみたいと思います。
 最近,Microsoft の Copilotのほうは,英語で会話していると,私を英語を使う人と誤解しているのか,日本語で質問しても,英語で返答してくることが増えています。

2024年10月 9日 (水)

生成AIとの付き合い方

 最近,生成AIと対話しながら考えを整理することが増えました。ただ,こちらの問いかけがうまくないと,期待した会話ができないこともよくあります。これからの時代,プロンプトエンジニアリング(Prompt Engineering)の重要性が増し,その専門家もいますが,多くの人が日常的に活用できるような学習プログラムが必要だと感じます(大学でもそういった授業があるようですし,私も受講したほうがいいかもしれませんね)。
 
先日,授業準備のために明治政府の官営事業の払い下げについてChatGPTで質問してみました。その中で,「生野銀山は住友財閥に払い下げられた」という誤った情報を提示してきました。これに対して「間違いではないか」と尋ねると,AIは素直に「申し訳ありませんでした」と謝罪し(誤りを指摘したときの定番の応答です),そのうえで,別の文章を書いてきました。しかし,その新しい回答も明らかに間違っていました。そこで,こちらから「三菱財閥ではないか」と具体的な訂正案を提示すると,AIはそれを認めつつも,再び誤った内容で話を進めてしまいました。これまでの経験からも,AIが最初に間違った回答をしてきた場合,対話を通して正解にたどり着くことはほとんどありません。AIが潔く「知らない」と答えることもありますが,無理に対話を続けると時間の無駄になることが多いです。ただ,こうしたことは人間同士の対話でもよくあることです。人間だって潔く「知らない」と言わないか,ほんとうに勘違いしているかはともかく,正解にたどりつけないことはよくあることです。
 今後,より優秀な生成AIが登場するかもしれませんが,現時点では文章の推敲や,それほど重要ではない仕事の草稿の作成に使う程度が適切でしょう。当面は,この便利なツールを使いこなすには忍耐が必要ですが,ChatGPTも進化し続けていますし,こちらのスキルが向上すれば,将来的には非常に有用なツールになると考えています。ChatGPTは,物知りの長老が隣にいるようなものです。長老の記憶があやふやなことがあるのと同じように,ChatGPTの誤りも人間と変わらないと感じます。むしろ「コンピュータだから正しい」と思い込むことこそが危険です。対話は,単なる数字の計算とは違うのです。

 <この文章もChatGPTに推敲してもらいました。>

2024年10月 1日 (火)

東京新聞に登場

 今日から新学期が始まりました。法科大学院(LS)は,すでに始まっていますが,学部やその他の大学院の授業は今日からです。キャンパスでの学生の数も増えました。秋の新学期といえば,もっと涼しい気候のはずですが,今日も昼間は真夏のような暑さです。
 話は変わり,昨日の東京新聞に登場しました(AIに人事評価をゆだねるって怖いけど… IBMと労組が和解した理由とは? EUは「高リスク」と規制」)。東京新聞への登場は,今年,2度目です。日本IBMの不当労働行為事件の和解をきっかけとして,賃金の査定にAIを使うことについて記者の山田祐一郎さんが分析しています。私も電話で取材に応じて,少しだけその内容が採り上げられています。このテーマでは先日の日経クロステックに続く2回目です。ビジネスガイドに連載中の「キーワードからみた労働法」(日本法令)の次号も,このテーマを採り上げていますので,詳しくはそちらを参照してください。
 先日の神戸労働法研究会では,劉子安さんが,2021年に制定されたスペインの「ライダー法(Ley Rider)」について紹介してくれました(この法のもとは,Real Decreto-ley 9/2021です。Decreto-leyは,たぶんイタリアのDecreto-legge と似ていていて,緊急時に政府がまず命令を発し,その後,一定の期間内に,議会の承認により法律に転換するというもので,転換されなければ遡及的に失効します。私は法律命令と直訳していますが,人によっては暫定措置令などと呼んだりします。ただ法律に転換すれば,もちろん法律です。スペイン法もたぶんイタリア法と同じようなものではないかと推測していますが,スペイン法の専門家への確認を要します。いずれにせよ,今回のものは,王が出す命令のようであり,これは王政ではないイタリアにはないものです)。この法には,プラットフォーム労働に関する重要な規定が含まれていて,欧州では注目されているものです。労働者性の推定に関する規定に加え,アルゴリズム管理をめぐる透明性に関する規定を置いています。研究会で最後に議論になったのは,透明性との関係で,情報提供をされても,労働組合や労働者はよく理解できない部分が多いので,情報の提供者と受領者との間の「橋渡し役」が必要という点です。スペインやEUの例が紹介されましたが,日本でも同様の役割を担う人が必要でしょうね。それは,AIに精通した技術者や研究者などの専門家が担わざるを得ないでしょう。AI技術者にとっては,AI開発における倫理的責任(プライバシー侵害や差別などが生じないようなデータセットやシステム開発の必要性など)だけでなく,素人が安心してAIを活用できるようにするために,わかりやすく説明する責任があります。責任というとちょっと重い感じもしますが,結局,業界をあげてそのような努力をしなければ,AIは信用を失い,支持されないものになっていく危険があるように思います。

2024年9月11日 (水)

生成AIの限界と人間の素晴らしさ

 ChatGPTなどの生成AIの発展は目覚ましいですが,エネルギー効率の点では,人間の脳にはかないません。日本経済新聞のやや昔の記事で,「脳にある神経細胞の動作を模した機械学習モデルをシミュレーションすると,コンピューターは約800万ワットの電力を消費するが,人の脳は約20ワット,つまり40万分の1の電力消費で済む」ということが紹介されていました。20ワットというのは,ご飯1杯か2杯分のエネルギー量で,これだけで脳は高度な情報処理を行っているのです。
 AIが膨大な電力を消費することは明らかで,その点ではエコとは言えません。もちろん,AIは節電などの効率向上に役立つのですが,やはり生成AIの莫大な電力消費量は大きな課題です。再生可能エネルギーの拡大や核融合発電の実用化が進まなければ,AIの大規模な導入は環境に負の影響を与える面がどうしても気になり,手放しでは賛同しにくいことになります。
 このことは,人間の脳の素晴らしさを浮かび上がらせることにもなります。やはり人間の能力は凄いのです。もちろん,AIと人間の間には情報処理量という点で大きな差があります。AIはインターネット上の膨大な情報を高速に処理できるため,その点では人間より圧倒的に優位です。しかも,AIの欠点とされる,そのエラーも,多くの場合,人間のエラーを反映したものです。人間は誤解,見間違い,聞き間違い,言い間違い,記憶違いを頻繁に起こします。AIのエラーも,人間のエラーを反映したデータで学習したものといえるのです。特に人間は高齢になるとエラーが増えますので,AIのことを批判はできないでしょう。本当に重要な作業はAIに任せるべきではないのですが,それは人間の高齢者に責任ある作業を任せるべきでないのと同じです。
 このようにみると,AIは人間を凌駕する面もありますが,人間の不完全性を投影した存在でもあるし,また人間の素晴らしさを再発見させてくれる存在でもあります。私たちの課題は,こうしたAIとどのように付き合っていくかです。電力問題は,AIと人間の協働の未来を切り拓いていくうえで,とても重要な意味をもっているように思えます。

2024年9月 1日 (日)

「来る来る詐欺」とAIとの向き合い方

 9月になりました。明日から幼稚園,小中高は,新学期でしょう。夏休みの最後は,天気に振り回されて,宿題の完成に専念できたでしょうか。 今回の台風について,飲食店では「来る来る詐欺」と呼ばれているようです。台風が来るとの予報のせいで,次々と予約がキャンセルされ,私のよく行く飲食店のインスタグラムでも困惑する様子が見受けられました。昨日は,そんな店に行って,感謝されました。
 先週の火曜日に台風が関西に直撃すると予想されていましたが,結局,台風どころか,大雨さえも降りませんでした。九州にいったん上陸した台風が,なぜか関東に大雨をもたらせています。これだけ予報が外れると,先手を打つ対応が難しくなりますね。入学試験も影響を受けています(このため,オンラインが中心であるべきであるという,私のいつもの主張となります)。
 天候予測にはAIが活用されていると思いますが,台風に関してはデータが十分でないのかもしれません。台風の進路予測には多くの変数が関与しており,それらのデータがまだ十分でないために予測精度が上がらないのでしょう。AIに頼りすぎるのではなく,あくまでも参考資料として,様々な可能性に備えることが,AIとの正しい向き合い方なのかもしれません。これは台風に限ったことではないでしょう。
 ところで9月に入ってからの阪神タイガースの反攻は可能でしょうか。ドーム球場を本拠地としないチームは,雨天中止の試合が多く,残り試合数が増えていく傾向にあります。しかし,阪神には甲子園だけでなく,京セラドームでのホーム試合もあるため,雨の影響をある程度緩和できています。シーズン終了の日は決まっているため,最近ではほとんど見られないダブルヘッダーが行われる可能性も考えられます。投手陣に余裕のあるチームが有利となるでしょう。阪神の逆転優勝へのわずかな期待は,ここにあります。 

 

2024年8月27日 (火)

日本IBM事件和解

 人事評価システムでのAIの使用をめぐる日本IBM事件の和解(「日本IBMAIでの人事評価で項目開示 労使紛争和解」)について,日経クロステックの記者からの取材を受けました。東京都労働委員会で長い間係属していましたが,8月1日に和解となったようです。事件の経緯はよくわかりませんが,東京都労働委員会は,よく粘って和解にこぎつけたと思います。労働委員会での個別事件の論評は,立場上しないと事前に伝えておきましたが,このような合意が得られたことの意義について,AIの人事における活用のあり方という観点からコメントをしました。記者は,拙著AI時代の働き方と法―2035年の労働法を考える』(弘文堂)を読んで私に取材依頼をしてきたそうです。30分ほど話をしましたが,基本的には,いわゆるAIは有用であるが,使い方を間違えると危険性もあるので,企業内での人事という場面での利用は労使で話し合ってルール形成をするのが好ましいであろうという趣旨のことを述べました。そのほかにも,AIをめぐる立法や政策のあり方など一般的な話もしました。
 今日の取材では,労働法の話はほとんどしませんでしたが,この事件について,労働組合法上の論点,人事管理の観点からの議論などは,次号の「キーワードからみた労働法」(ビジネスガイド11月号)でとりあげるつもりです。
 その「キーワードからみた労働法」は,現在,発売中のビジネスガイド9月号では,「自由意思法理」というタイトルで,山梨県民信用組合事件・最高裁判決の影響を検討しています。さらに10月号では,「退職事由」というタイトルで,合意による退職事由というものについて検討しています。有期雇用の期間満了も定年も合意による退職という面がありますが,その他にこうしたものを認める余地はないか,というような問題意識で執筆しています。やや変わった切り口を,読者の皆さんに味わってもらえればと思います。

2024年6月23日 (日)

AI法

 5月21日に,EUのAI法が可決されました。AIに関する包括的な法律ですが,これはAIを規制する一面がある一方,AIの利用に関する見通しのよいルールを設けて,過剰な利用による弊害を回避し,他方で,開発者や事業者たちが慎重になりすぎて過小な利用となることによって,この技術の潜在的な価値を活かせないことがないようにするものといえるでしょう。
 AI法はリスクベースアプローチをとったとされ,AIシステムを,①unacceptable risk(許容できないリスク),②high risk(ハイリスク),③limited risk(限定されたリスク),④minimum risk (最小リスク)というようにリスクの程度に分け,それそれに合った規制の内容としています。①に該当すると禁止となるので,重要なのは禁止するほどではないが,リスクが高い②をどのように扱うであり,AI法の中心も②に関するものとなっています(具体的には,リスクマネジメントシステムの構築などのAIシステムに求められる要件(requirements)と,provider やdeployer の義務が詳細に定められています)。労働に関するものでは,「雇用,労働者管理,自営的就労へのアクセス(employment, workers management and access to self-employmen)」において,募集・選考,労働条件に影響する決定,昇進・契約関係の終了,個人の行動や特徴に基づく仕事の割当,個人の監視や評価のために使用されるAIシステムが,②に分類されています。将来のキャリア,個人の生活,就労者としての権利にかなりの影響を及ぼす可能性があるからだと説明されています。雇用も自営も区別しないところがデジタル社会に適合的ですね。
 ③については,いわゆる透明性の義務のみが課されています。そこには,たとえば生成AIやディープフェイク(deep fakes)も含められ,コンテンツがAIによって生成されたものであることを示しておかなければならないとされています。
 日本でも,従来のAI関係のガイドラインを統合する形で,4月19日に「AI事業者ガイドライン」が発表されています。先日,閣議決定された「骨太の方針」では,「AIの安心・安全の確保」という項目で,「我が国は,変化に迅速かつ柔軟に対応するため,『AI事業者ガイドライン』 に基づく事業者等の自発的な取組を基本としている」とされています。ガイドラインの内容は,まだよくみてはいませんが,一見したところ,たいへんわかりやすく,使い勝手がよさそうです。ここでも,EUと同様,リスクベース・アプローチがとられるとされていますが,雇用や労働面におけるAI利用のリスクについてハイリスクと分類され,強い規制対象となるかについて,今後の動向が注目されます。
 いずれにせよ,個人情報保護と並び,AIの利用規制は,今後のデジタル労働法においても中核的な領域を形成すると考えられますので,私たちも,その議論や規制の動向を注視しておかなければなりません(フォローしていくのは大変なのですが)。

より以前の記事一覧