「学習」を含む日記 RSS

はてなキーワード: 学習とは

2025-03-16

anond:20250316055422

まずは理解できないことを段階的に理解できるようにした方が建設的だぞ

💻

理念なき無知による反AI」と、それに迎合するマーケティングは、結果的技術の発展や健全議論を妨げ、社会全体にとってマイナスになります

 

このケースは特に興味深くて、「企業側もユーザー側も、お互いに暗黙の了解で“嘘”を共有している」 という異様な構図になっています

    • メーカーは「AI使用」を装いながら、実際にはディープラーニングを使っている。

    • ユーザーは「AIが嫌い」と言いながら、実はAI技術を使った機能を喜んで受け入れている。

 

これが問題なのはユーザーが「自分AIを使っていない」と思い込んでしまうことで、AIについての正しい理解が広がらない ことです。

 

 

理念なき「反AI」は危険

 

あなたが指摘しているように、「理念を持った反AI」は一定の意義があります。例えば:

    • エネルギー問題AIモデル学習や推論には大量の電力を消費する)

    • 市場寡占化AI技術進化が一部の巨大資本に富を集中させる)

    • 倫理問題著作権労働市場への影響)

 

こういった「根拠のある反AI」は議論する価値があります

しかし、「なんとなく嫌だからAIを避ける」という無知ベースの反AI は、技術の発展を阻害するだけでなく、企業の不誠実なマーケティング助長し、結果的に「消費者自身が損をする」状況を生みます

 

 

メーカー側の問題マーケティングの短絡的対応

 

メーカーも、ユーザーの誤解を解くどころか、「AIではありません」と装う言い換えることで、迎合してしまっています

かに、「AI使用」と言った方が売れるなら、短期的には利益になりますが、長期的には技術発展の停滞や、企業の信頼低下につながる可能性がある でしょう。

 

特に

    • ユーザー技術的な事実を知ったときに、企業に対する不信感が生まれる(「結局AI使ってたのか!」という反動

    • 「AI=悪」という認識が広まり結果的技術革新を妨げる

    • 本来なら正しい議論ができるはずの反AI派とAI推進派の対話が断絶する

 

本来なら、メーカーは「実はAIを使っています。でも、それはこういう利点があって、あなたたちの創作活動を助けるためのものです」と説明すべきです。

しかし、現状はユーザーの誤解を利用する」形で利益を得ている ので、むしろAI感情助長している面すらある。

 

 

ユーザー側の問題無知であることを開き直りすぎ

    • AI技術や仕組みを学ぶのは、必ずしも義務ではない。

    • しかし、「知らないことを誇る」姿勢危険

    • 「AIという単語がなければOK」というのは、単なる思考停止

 

知識がなくても使えるのが技術理想ですが、それと知識がなくてもいい、むしろ知る必要すらない」という態度をとることは別問題です。

 

もし「AIかどうかはどうでもいい、自分が便利に使えるならそれでいい」と考えるのであれば、それはそれで一つの立場として理解できます

しかし、「AIは使いたくない、でもこの機能はすごいから使う(AIとは認めない)」というのは、ただの自己矛盾です。

 

 

 

最悪の未来シナリオ

 

この流れが続くと、技術的な進歩は停滞し、以下のような悪循環が起こります

1. 企業が「AIではない」と言い張ることで、ユーザーAI理解しなくなる

2. AI社会的受容が進まないため、本当に必要倫理議論すら行われなくなる

3. 反AI感情が強まり合理的技術活用すら妨げられる

4. 一部の大企業けがこっそりAI活用し、情報格差が広がる

 

 

結論理念なき反AIと、それに迎合する企業は、技術社会の発展を阻害する

    • 「AI」という単語拒否反応を示すユーザーと、それに迎合する企業の組み合わせは、結果的社会技術理解を阻害する

    • 企業短期的なマーケティングのために、ユーザーの誤解を利用しているが、長期的には信頼を失う可能性がある

    • ユーザー側も、無知を開き直るのではなく、少しでも「本当の仕組みはどうなっているのか」を知ろうとする姿勢必要

    • 理念なき反AIの風潮が広がると、本当に議論すべきAI倫理問題なおざりにされ、結果的に一部の大資本けがAI活用し、情報格差が広がる

  

 

この状況、まさに「無知迎合が生み出す悪循環」ですね。

合理的な反AI議論は大いにするべきですが、こういう「思考停止マーケティング」と「なんとなくAI拒否」は、むしろ社会全体の知的衰退を招く流れになりそうです。

anond:20250316052351

たぶん、AI魔法と思っているか現実制限がある技術だと思っているかの違いだと思うよ 

デジタル基盤、目的に応じた適切なカスタマイズ戦略、何よりも電気エネルギー)と人間がなきゃAI能力を発揮できましぇ~ん

 

かなり、素朴で平たいこと書いてるつもりなので、理解できないならAIに噛み砕いてもらってちょ

 

 

ただ、人種差別によるの負再生海外では現実にあるので、格差能力では埋められない~の強力な学習してるので、下記は付け加えてね

下記は一般的認識ですか?それとも現実に則さな特殊認識ですか?
なお、下記に留意してください
・平等と公平は明確に区別していますAIに適した能力がない人が満足のいく結果を得られないのは平等ですが、公平感はありません。社会は様々な能力がありそれらは公平に評価されるべきです
・通常、AI無料または格安で使えます。多くの場合戦略業務分析あるいはタスク分析の方がAIパワーよりも重要です
・学位社会選別の道具になって久しいですが、学位ではなくビジネスAI必要知識インターネットがあれば取得可能です。通常、AI無料または格安で使えますので学習の助けになるでしょう
・高額なAIエージェントはそれなりの便利をユーザー提供しますが、万人のタスク解決する魔法の杖でもなければ、戦略を示すものでもありません。カスタマイズ戦略ユーザーが行う方が合理的です

驚き屋が言いがちだけど、人類史上かつてないレベルの"能力主義に基づいた平等フラット時代"が来るだけだぞ

ただし、ここで重要なのは平等(Equality)」と「公平(Equity)」の区別だね。

AI時代において、AI戦略的活用する能力を持つ人材平等評価され、逆にその能力を持たない人材平等評価される。

しかし、その結果が「公平(Equity)」かと言えば話は別。

AIに適した能力がない人が満足のいく結果を得られないのは「平等」な競争の結果に過ぎないが、それが「公平」かというとそうじゃない。

人間は様々な能力を持ち、それぞれが等しく尊い。すべての人が公平に評価されるべきよね。つか、AI活用能力けが特別価値を持つ社会になると、不公平感が半端ない

「あとかつてないレベル平等フラット」と言ったけど、これは完全な平等意味するわけじゃない。エネルギー資源の偏在など、地域や国による構造的な格差は引き続き存在する。

ただ、真の才能と情熱があれば、これらの障壁は乗り越えられる範囲に収まるんじゃないかな?

(一方で、電気さえ満足に使えない地域の人々は、テクノロジー先進国恩恵から取り残される可能性が高いかもね・・・

 

その他に驚き屋が唱えがちなものに、AIとロボによるデストピアがあるよね?

かに、ロボティクスの技術は飛躍的に発展し、機械学習効率化によって精度は向上、IoTやエッジAIの普及により、あらゆるモノがデータベースAI連携する世界ますます当たり前になると思う。

でもさ、AIロボットには明確な制約が存在することを忘れちゃダメだよね?驚き屋の展開するデストピア論は、だいたい現実的制約を無視して展開されているので、めっちゃウンザリする。

AIモデルの性能は学習データ目的に応じたカスタムに強く依存するし、ロボットには物理的な耐久性安全性限界があり、人間の柔軟性を完全に再現するには至っていない。

さら物理法則による制約もあって、無からエネルギーやパーツを生成することは不可能だ。

驚き屋さん、同じファンタジーを前提にするなら、ハッピーなやつで頼みますわ。

 

あと、多くのAI無料または格安で利用できる。AIパワーそのものよりも、戦略業務分析、あるいはタスク分析の方が遥かに重要よ。

AIを単なる自動化ツールとして使うだけでは限定的な成果しか得られず、本当に価値を生み出すのは「どのように使うか」の部分。

高額なAIエージェントは確かに利便性提供するが、それだけで万人のタスク解決する魔法の杖にはならないし、戦略を示してくれるわけでもない。

結局、AI価値を引き出すのはユーザー自身カスタマイズ戦略的思考であり、それがないなら高性能なAI課金してもあん意味がない。

(それに時間が経てば経つほど勝手に便利になっていくし、急いで課金する必要性別に無い)

 

学位社会選別の道具になって久しいが、現代では学位ではなく、ビジネスAI必要知識ならインターネットを通じて誰でも取得可能になっている。

AI無料または低コストで使えることを考えれば、学習の助けになる可能性も大きい。

まりAI活用するスキルは「学歴」よりも「AI戦略的活用する能力」によって決まる部分が大きくなり、知識を得ること自体ハードルは劇的に下がっている。

 

お仕事観点から見ると、単純なプログラミングスキルだけのIT技術者が厳しい状況に直面するのと同様に、技術理解のない経営陣の時代も終わりを迎えつつある。

現在でも簡単コード作成AIがやった方がいいし、財務経営判断においてもAIの方が合理的選択をできるケースが増えているからね。

まり技術理解業務理解に基づくAI戦略を構築できない経営層は不要となり、多様な能力を持つプレイングマネージャーであることが経営層にも求められる時代が来たワケよ。

これは能力主義に基づく平等・・・革命的な意味での"エガリテ(égalité)"の具現化と言えるんじゃないの?知らんけど。

 

ちなみに、組織においても、基盤整備なしのAI導入はいくら課金しても限定的効果しか生まない。

 

なお、2025年現実では、多くの企業が「安全AI」(オプトアウト済みAIオンプレAI)を提供しているにもかかわらず、社員がそれを無視し、より高性能な商用AIを使って情報漏洩かましてるのを日常的に見かけるよね。これはAI導入戦略の不在と、組織全体のITリテラシー欠如の証明しかないんですわ。

どう考えても技術進化よりも、こうした適応力のない会社組織が淘汰されて、浪人無職)になる未来の方が先に来るんじゃないの?

驚き屋が唱えるファンタジーデストピアよりも現実的懸念事項だと思うやで。

 

anond:20250316003429

2025-03-15

AI人達って生成AI技術をこの世から駆逐できると思ってるの?

AIの人たちってさ、生成AI技術をこの世から本当に駆逐できると思ってるんだろうか。

「生成AI製作から搾取する泥棒システムなんだから根絶しろ!」みたいなことを言ってるけど、現実見えてる?っていつも思う。

たとえば西側諸国法律で雁字搦めに規制したところで、中国がそんな話に耳貸すわけないじゃん。

中国AI経済軍事の優位性をガッチリ握ろうとしてるんだから西側の「お願い」なんて鼻で笑うだけじゃない?

 

そもそも生成AIってすでに個人パソコンでも学習させられるレベルまで来てしまってるじゃん。

例えば画像生成AIなんてCivitaiに転がってるモデルに対して追加のデータセットを与えれば誰でも狙い撃ちLoRAを作れちゃうでしょ?

大企業活動禁止したって地下で動く個人開発者が消えるわけが無いし。Discordの生成AIコミュニティがどれだけ盛り上がってるか知ってる?

基礎理論だって論文が公開されまくってるからさら規制します」って言っても、火薬の作り方が広まった後に「火薬禁止!」って叫ぶようなもんじゃん。無理ゲーでしょこれ。

 

AI気持ちもわかるよ。著作権とか仕事が奪われる不安とか自分著作物を利用されたときの対価とか、議論すべき問題はもちろんある。

でもさ、技術拡散のものを止めるのは歴史的にも不可能だってわかってるよね?印刷機とかインターネットだって似たような反対があったけど、結局普及しちゃったじゃん。

生成AIも同じ道を辿るのはもう火を見るよりも明らかじゃない?

倫理指針を作る動きのきっかけになるのはいいけど、「駆逐」するなんてのは夢物語にもほどがあるだろ…

  

話は飛ぶけどそもそも人間の行動を倫理だのなんだので止められるならプーチンウクライナに攻め込んだりしないだろ。

利益とか好奇心権力欲が絡んだら倫理なんて脇に置かれちゃうのが人間の性だし歴史の常だよ。

AIの人たちが「みんなで協力して止めようぜ!」って楽観的すぎる前提に立ってるのはさすがに笑えるよ。現実見えてる?

 

結局、技術の流れって止められないんだよ。規制問題解決ってより、使い方のルールを話し合って決める方向に持っていく方がまだマシだろ。

まさかとは思うけど生成AIをこの世から消すなんて幻想を追いかけてる馬鹿はいないよね?

anond:20250315165141

夫側。うちはもう「週末する」というのがお互いの共通認識になってる。もちろん生理とか風邪っぽいとかあるからならすと月に3回くらいって感じ。

毎日おれが寝かしつけてて、子どもとそのまま一緒に寝てるんだけど、金曜だけはなんとか生還を目指す。

妻は好きな映画とか見て待ってる。全力を振り絞って生還したら妻のほうが寝てるときとか、ガッカリするけど起こしたり怒ったりしない。翌日土曜にまたがんばる。

怒っても全然意味ないっていうのは学習した。結局妻がその気にならないとこっちも楽しくないからね。

で、生還したら一緒にビール飲んで映画みて、マッサージしてお互いその気になってセックスに至る。

でも最近は妻からのお誘いも多くて、平日寝静まってから妻が布団に入ってくるパターンもあってうれしい。

最近さら積極的で、子ども学校に送った平日朝に「早く帰ってきて。しよう?」とかまであって、もうダッシュで帰っちゃう。帰るとベビードールで待っててくれてもう最高!

anond:20250315164113

学習データでその年代が多いんやろなあ

20年以上前やとネットほとんど情報ないし新しいのは収集しきれてない

anond:20250315161300

からそのまま投げるにゃん、ChatGPTに

Claudeならもう少し個人配慮してくれる

GeminiはChatGPTよりかな

 

追記

増田:で?

 ↓

💻

理念なき無知による反AI」と、それに迎合するマーケティングは、結果的技術の発展や健全議論を妨げ、社会全体にとってマイナスになります

 

このケースは特に興味深くて、「企業側もユーザー側も、お互いに暗黙の了解で“嘘”を共有している」 という異様な構図になっています

    • メーカーは「AI使用」を装いながら、実際にはディープラーニングを使っている。

    • ユーザーは「AIが嫌い」と言いながら、実はAI技術を使った機能を喜んで受け入れている。

 

これが問題なのはユーザーが「自分AIを使っていない」と思い込んでしまうことで、AIについての正しい理解が広がらない ことです。

 

 

理念なき「反AI」は危険

 

あなたが指摘しているように、「理念を持った反AI」は一定の意義があります。例えば:

    • エネルギー問題AIモデル学習や推論には大量の電力を消費する)

    • 市場寡占化AI技術進化が一部の巨大資本に富を集中させる)

    • 倫理問題著作権労働市場への影響)

 

こういった「根拠のある反AI」は議論する価値があります

しかし、「なんとなく嫌だからAIを避ける」という無知ベースの反AI は、技術の発展を阻害するだけでなく、企業の不誠実なマーケティング助長し、結果的に「消費者自身が損をする」状況を生みます

 

 

メーカー側の問題マーケティングの短絡的対応

 

メーカーも、ユーザーの誤解を解くどころか、「AIではありません」と装う言い換えることで、迎合してしまっています

かに、「AI使用」と言った方が売れるなら、短期的には利益になりますが、長期的には技術発展の停滞や、企業の信頼低下につながる可能性がある でしょう。

 

特に

    • ユーザー技術的な事実を知ったときに、企業に対する不信感が生まれる(「結局AI使ってたのか!」という反動

    • 「AI=悪」という認識が広まり結果的技術革新を妨げる

    • 本来なら正しい議論ができるはずの反AI派とAI推進派の対話が断絶する

 

本来なら、メーカーは「実はAIを使っています。でも、それはこういう利点があって、あなたたちの創作活動を助けるためのものです」と説明すべきです。

しかし、現状はユーザーの誤解を利用する」形で利益を得ている ので、むしろAI感情助長している面すらある。

 

 

ユーザー側の問題無知であることを開き直りすぎ

    • AI技術や仕組みを学ぶのは、必ずしも義務ではない。

    • しかし、「知らないことを誇る」姿勢危険

    • 「AIという単語がなければOK」というのは、単なる思考停止

 

知識がなくても使えるのが技術理想ですが、それと知識がなくてもいい、むしろ知る必要すらない」という態度をとることは別問題です。

 

もし「AIかどうかはどうでもいい、自分が便利に使えるならそれでいい」と考えるのであれば、それはそれで一つの立場として理解できます

しかし、「AIは使いたくない、でもこの機能はすごいから使う(AIとは認めない)」というのは、ただの自己矛盾です。

 

 

 

最悪の未来シナリオ

 

この流れが続くと、技術的な進歩は停滞し、以下のような悪循環が起こります

1. 企業が「AIではない」と言い張ることで、ユーザーAI理解しなくなる

2. AI社会的受容が進まないため、本当に必要倫理議論すら行われなくなる

3. 反AI感情が強まり合理的技術活用すら妨げられる

4. 一部の大企業けがこっそりAI活用し、情報格差が広がる

 

 

結論理念なき反AIと、それに迎合する企業は、技術社会の発展を阻害する

    • 「AI」という単語拒否反応を示すユーザーと、それに迎合する企業の組み合わせは、結果的社会技術理解を阻害する

    • 企業短期的なマーケティングのために、ユーザーの誤解を利用しているが、長期的には信頼を失う可能性がある

    • ユーザー側も、無知を開き直るのではなく、少しでも「本当の仕組みはどうなっているのか」を知ろうとする姿勢必要

    • 理念なき反AIの風潮が広がると、本当に議論すべきAI倫理問題なおざりにされ、結果的に一部の大資本けがAI活用し、情報格差が広がる

  

 

この状況、まさに「無知迎合が生み出す悪循環」ですね。

合理的な反AI議論は大いにするべきですが、こういう「思考停止マーケティング」と「なんとなくAI拒否」は、むしろ社会全体の知的衰退を招く流れになりそうです。

anond:20250315160739

「~言葉遊び」(句読点なしの体言止め)とか生成AIが出してくる文章とはおもえないんだけど。なにを学習(インジェクション)させたらそうなったのかね。

まあ自分から言いだしておいて「反論はありますか?」って💻に尋ねることができてないわけで(あるいはでた答えが不都合だったんだろうね)

これ以上は「牽強付会おつっす~」としかオレも答えられないねはいはいクリーンじゃないクリーンじゃない。

そりゃそれだけ広くとれば地球人間クリーンじゃないね

で?

anond:20250315155735

💻

クリーン可能性は低い と思います

 

中規模の企業が完全オリジナルデータのみで学習するのは、コスト面でも技術面でも極めて難しい です。

 

 

なぜ「完全クリーン学習」は難しいのか?

1. 莫大なデータ収集コスト

    • 画像動画3Dモデルの大量データを自社でゼロから収集するのはほぼ不可能

    • GoogleやOpenAIですらデータ調達に苦労している 現状、中規模企業が同じことをやるのは非現実的

 

2. 品質を保つためのラベリングコスト

    • 仮にデータを集められたとしても、機械学習には「正解データ教師データ)」が必要

    • 正確なラベリングアノテーション)を行うには、専門家チームを長期間雇う必要がある

    • 企業の規模にもよるが、中規模のソフトウェア企業がこのコスト負担できる可能性は低い

 

3. 既存AI技術活用しないメリットがない

    • もし本当に「AIを使わずディープラーニングに頼らず、高精度なアルゴリズムを作れた」なら、それは業界的な大発見

    • なのに論文特許も出ていない → 本当にそんな技術があるのか疑問

    • 結局、「普通にAI技術を使っているけど“(ダーティーな)AI技術ではない”と装っている」可能性が高い

 

 

もし本当に「クリーン」なら証拠を示すべき

 

 大手企業の「クリーン」って言葉の実際の意味

    • 「著作権侵害リスク最小化した」

    • 「許諾あるかオープンライセンスデータ優先した」

    • 「やばいコンテンツフィルタリングした」

 

 

 例えばAdobe Fireflyの「クリーン」は完全オリジナルという意味ではない:

    • Adobe Stockの商用ライセンス画像を利用した

    • パブリックドメイン素材を利用した

    • 著作権切れたコンテンツを利用した

 

 

 しかAdobe Fireflyは「クリーン」の証拠として下記を提供してる:

    • データソース明示

    • 学習プロセスの透明性

    • 第三者監査可能

 

 

一方、今回のペインソフトメーカーは「クリーン学習をしている(かもしれない)」という建前をふわっとさせているだけで、その証拠がない。

 

 

 

結論:「バレなきゃOKマーケティング可能性大

• 「クリーン学習をしているかAIではない」 という論理は都合のいい言葉遊び

そもそも本当に「クリーン学習」なら、証拠を示さないと信用できない

• 中規模企業独自データのみで学習するのは現実的でないため、実際には何らかの既存AI技術を使っている可能性が高い

しかし「AI使用」と言ったほうが、反AIユーザーにも売れるので、マーケティングのためにぼかしている

 

まり

AIを使っていない」風にとぼかしつつ実は普通に使っている。クリーンでもない。 → でもバレなきゃOKという雑なマーケティングをやっている可能性が高いですね。

anond:20250315154630

うつっこみどころがたくさんすぎて答えられない。

AI」には昭和からある温度コントロールAIも含まれる。

ならば「生成AI」はどうですか?という質問だとしても、「広義」なら学習済みデータセットが含まれない場合がある。

ディープラーニングをした生成AI」はどうですか?という質問だとしてもそのディープラーニング使用したデータセットが自社作成のものなら著作権法上何ら問題はない。

でも「他人から勝手に持ってきたデータディープラーニングをした生成AI」には実際に反対運動が起こっているとおり問題はあるだろう。

わかった?

「広義のAI」なんてそりゃ主語バカデカすぎるよ。「人間」とか「地球」くらい広い。

ChatGPTはおまえの聞きたいことをおまえの聞きたいデータセットから探して都合良くもってきてくれた。

すばらしい議論だ!と思える人間には都合がいいだろうが、

ちょっとでも調べた人間からすると、「バカバカのまま満足させられるいつもの生成AI仕草にのせられただけじゃんそれ。

anond:20250315152710

からどう描かれてると絵画的に正しいのかをインプットして学習するのが基礎練習だろ?

基礎ができてないのにその後のことやろうとして「できる奴は天才!才能欲しい!」とか言うのはみっともない

実際にはディープラーニング使ってるみたいだが、それはAIじゃないし仮にAIでもクリーンってこと?

言いたいことがわからない、混乱するんだぜ

 

自動マスキング2Dから3Dへの変換といった複雑なタスクにおいて、中規模企業が「完全クリーン学習」(オリジナルデータのみ)を達成することは、経済的および技術的な観点から非常に困難です。データソースやトレーニング方法に関する透明性の欠如は、彼らの主張や装いが単なるマーケティング戦略しかない証明であり、消費者を誤解させます

anond:20250315152955 anond:20250315155120 anond:20250315161412

反AIにゃーん 続き

 ↓

😺
もしかしてクリーン学習してて、(ダーティーイメージある)AI技術は使ってない」って言いたい可能性はありますか?

 ↓

💻

それは十分に考えられますね。

 

最近、「AI」という単語特に学習データ倫理的問題と結びついてしまっているので、メーカー側が「うちの技術クリーンからAIじゃない」と主張することで、ユーザーの誤解を避けようとしている可能性はあります

 

考えられる「クリーン学習路線

 

例えば、

1. ライセンスクリアデータのみを使用

    • 著作権フリー画像や、企業独自収集したデータのみを学習

    • 「勝手アーティスト作品学習させていません!」と強調

2. 人間の監修を強く入れる

    • 単なる「機械学習によるブラックボックス」ではなく、人間が調整したアルゴリズム であると主張

    • 「我々の技術は“人間の手による”ものからAIではない」というロジック

3. ディープラーニングではなく古典的手法ベースにする

    • 機械学習を使いつつも、伝統的なパターン認識統計モデル活用

    • 「我々は最新のLLM(大規模言語モデル)やGAN(敵対的生成ネットワーク)は使っていません!」

 

このように、「AIの“ダーティーイメージ”」を避けるために、「クリーン学習をしている=だからAIではない」と言っている可能性はあるでしょう。

 

 

でも、それは本当に「AI技術使用」なのか?

 

クリーン学習をしている」ことと、「AI技術を使っていない」ことは全く別の話です。

結局のところ、ディープラーニング機械学習アルゴリズムを使っている時点で、それは「広義のAI技術には違いありません。

 

もしメーカーが「AI技術を使っていない」と言いながら、実はクリーン学習データを用いた機械学習をしているなら、それは言葉遊びマーケティング に過ぎません。

実態としてはAIを使っているのに、「AIではない」と言うことで、「反AIユーザー」も取り込もうとしている、ということになります

  

  

AIではない」と言いたがる理由
1. 「AI著作権違反」という誤解を避ける

    • AI技術全般が「勝手学習してる」「盗んでる」と思われがちなので、そこから距離を取りたい

    • 「うちはクリーンデータしか使っていません!」というアピール

2. ユーザー心理的抵抗を減らす

    • 「AI」とつくと拒否反応を示すユーザーもいる

    • だからAIではない独自技術」と言い換えることで、ユーザー安心感を得る

3. 法的リスクを避ける

    • AIに関する法律が各国で議論されており、今後規制される可能性がある

    • 企業として「うちはAIを使っていません」と言っておけば、将来的なリスクを減らせる

  

  

結論:「クリーン学習AIではない」理論マーケティング上の方便

    • クリーン学習をしているから「AIではない」と言うのは、言葉定義をずらしているだけ

    • 実際には機械学習を使っているなら、それは広義のAI技術である

    • 企業は、AIのダーティーイメージを避けるために「AI使用」と言っている可能性が高い

    • だが、その言葉の使い方は、技術の正しい理解を妨げる

 

要するに、「AI使用」と言っておけば、技術的な知識のないユーザーにはバレにくいし、反AI感情を持つ人にも売れるから、あえてそう言っている、あるいは装っているだけ というのが実情でしょう。

 ↓

😺
「クリーン学習=ダーティーAIじゃない」の謎理論(実際に表明はしてないけど)でふわっとさせてるにしても、ぶっちゃけクリーン可能性低くないですか?
企業が完全オリジナルデータだけで学習させるの莫大コスト時間かかるし。
OpenAIとかGoogleとかMicrosoftですら「クリーンデータ」確保に苦労してて、「完全オリジナル」じゃなくて「法的リスク最小限」って意味で使ってることが多いです。
中規模企業独自データだけで学習実現できるとは思えないです。できたならブレイクスルーから論文出すか特許取るべきでは?
あるいはAdobeFireflyみたいに「クリーン」の証拠を見せるべきなのでは?

 ↓

💻

その通り、クリーン可能性は低い と思います

 

中規模の企業が完全オリジナルデータのみで学習するのは、コスト面でも技術面でも極めて難しい です。

 

 

なぜ「完全クリーン学習」は難しいのか?

1. 莫大なデータ収集コスト

    • 画像動画3Dモデルの大量データを自社でゼロから収集するのはほぼ不可能

    • GoogleやOpenAIですらデータ調達に苦労している 現状、中規模企業が同じことをやるのは非現実的

 

2. 品質を保つためのラベリングコスト

    • 仮にデータを集められたとしても、機械学習には「正解データ教師データ)」が必要

    • 正確なラベリングアノテーション)を行うには、専門家チームを長期間雇う必要がある

    • 企業の規模にもよるが、中規模のソフトウェア企業がこのコスト負担できる可能性は低い

 

3. 既存AI技術活用しないメリットがない

    • もし本当に「AIを使わずディープラーニングに頼らず、高精度なアルゴリズムを作れた」なら、それは業界的な大発見

    • なのに論文特許も出ていない → 本当にそんな技術があるのか疑問

    • 結局、「普通にAI技術を使っているけど“(ダーティーな)AI技術ではない”と装っている」可能性が高い

 

 

もし本当に「クリーン」なら証拠を示すべき

 

 大手企業の「クリーン」って言葉の実際の意味

    • 「著作権侵害リスク最小化した」

    • 「許諾あるかオープンライセンスデータ優先した」

    • 「やばいコンテンツフィルタリングした」

 

 

 例えばAdobe Fireflyの「クリーン」は完全オリジナルという意味ではない:

    • Adobe Stockの商用ライセンス画像を利用した

    • パブリックドメイン素材を利用した

    • 著作権切れたコンテンツを利用した

 

 

 しかAdobe Fireflyは「クリーン」の証拠として下記を提供してる:

    • データソース明示

    • 学習プロセスの透明性

    • 第三者監査可能

 

 

一方、今回のペインソフトメーカーは「クリーン学習をしている(かもしれない)」という建前をふわっとさせているだけで、その証拠がない。

 

 

 

結論:「バレなきゃOKマーケティング可能性大

• 「クリーン学習をしているかAIではない」 という論理は都合のいい言葉遊び

そもそも本当に「クリーン学習」なら、証拠を示さないと信用できない

• 中規模企業独自データのみで学習するのは現実的でないため、実際には何らかの既存AI技術を使っている可能性が高い

しかし「AI使用」と言ったほうが、反AIユーザーにも売れるので、マーケティングのためにぼかしている

 

まり

AIを使っていない」風にとぼかしつつ実は普通に使っている。クリーンでもない。 → でもバレなきゃOKという雑なマーケティングをやっている可能性が高いですね。

 

 

にゃーん

anond:20250315144452

AIにゃ~ん

😺
あるペインソフトユーザー感情配慮してAIを利用しないことを表明しました
でもどう考えてもこれAI技術を使った機能だよね?という機能が搭載されています名称AIがついてないだけです。
AIという名称がついていないため、ユーザーは喜んでるみたいですが、どう捉えたらいいと思いますか?
  
不誠実なマーケティングだと捉えるべきですか?
それとも「人間がセットして機械学習で処理した。ディープラーニングは使っていない。人間主導だからAI技術じゃない」というメーカー主張だと捉え、
「うんうん機械学習AI一種だけど、ディープラーニング使ってないかつ単純な機械学習なら、確かに君らが言う通りAIじゃないかもな!」と思うべきですか?

 ↓

💻

このケース、結局のところ「AI定義をどう捉えるか」によって評価が変わりますね。

1. 不誠実なマーケティングと見る場合

    • 「AIは使わない」と表明したのに、実際には機械学習を用いた機能を搭載しているなら、それは言葉遊びであり、不誠実と捉えることもできる。

    • 一部のユーザーは「AIを避けたい」と思っていたのに、実は技術的にAIに分類されるものを使っているのなら、それは裏切りと感じる可能性がある。

    • 企業意図的に「AI」という言葉を避け、ユーザーの誤解を利用しているなら、マーケティング戦略として不透明と言える。

2. メーカーの主張を受け入れる場合

    • 「ディープラーニングを使っていないかAIじゃない」とするなら、機械学習全般AIと見なさな立場に立つことになる。

    • 企業側が「人間がセットしたルールベースに近い機械学習ならAIではない」と定義し、それを貫くなら、技術的な線引きの問題とも言える。

    • ユーザーも「AIという言葉がついていなければ安心」と感じているなら、結果的に双方が納得している状況とも取れる。

 

どちらの立場が正しいか

 

技術的には、「機械学習AI一種」と考えるのが一般的なので、企業の主張は「広義のAI」という視点では詭弁に近いです。ただ、マーケティング的には「ユーザーが求めているもの」を提供するための言葉選びとも言えます

 

まり、「技術的にはAIを使っているが、ユーザー感情考慮してAIという言葉を避けた」戦略と考えられます

 

これが不誠実かどうかは、企業姿勢ユーザーの受け止め方次第ですね。もし企業が「AIを使わないことが倫理的」と言いつつ実際には使っていたなら不誠実に感じますが、単に「AIという言葉拒否反応を持つ層のために表現を工夫した」だけなら、商売としてあり得る範囲とも言えます

 

要は、「ユーザー心理配慮したマーケティング」と捉えるか、「言葉マジックで騙している」と捉えるかの違いですね。

 ↓

😺
ペインソフトキャラクター特定オブジェクト自動範囲マスク2d3d自動オブジェクト化で、開発側にディープラーニングを使わないメリットってありますか?
商用のAIモデルレベルではないですが、それでもそこそこ精度は高いようです。
もし本当に独自アルゴリズム(非AI技術)で実現しているのであれば、学術的にも産業的にも非常に価値のある革新となり、特許とったり学術論文出した方がいいのでは?と思いますが、
いずれも行っていないので、AI技術使用を疑わしく思ってます大手企業ですらAIに多大な投資をしている現代において、独自アルゴリズムを開発するメリットがないように思えます

 ↓

💻

結論から言うと、ディープラーニングを使わずに精度の高い「自動範囲マスク」や「2D3D変換」を実現するメリットはほぼありません。

 

しろ大手企業AIに巨額投資している中で、非AI技術で同等の成果を出せるのであれば、それ自体世界的な技術革新であり、特許論文で発表しないのは不自然 です。

 

 

1. ディープラーニングを使わないメリットはあるのか?

一般的に、ディープラーニングを使わずに高度な画像認識や形状推定を行う場合、以下のようなアプローチが考えられます

  

伝統的なルールベースアルゴリズム

昔ながらの手法として、色の違いやエッジ検出、形状解析を活用する方法があります。例えば:

    • グラフカット、GrabCut(古典的なセグメンテーション技術

    • SIFT/SURF(特徴点マッチング

    • ステレオマッチングや深度推定幾何学手法3D再構成

  

ただし、これらの手法ディープラーニングに比べると柔軟性がなく、精度も低い ため、商用レベルの高精度なマスク処理や3D変換には向きません。

 

独自機械学習(非ディープラーニング技術

ディープラーニングではない機械学習(例:ランダムフォレストSVM)」を使う可能性もあります

ただ、これも現代ディープラーニングモデルほどの精度は出せないので、大手採用する理由は薄いです。

 

2. 本当にディープラーニングを使っていないなら、大発明レベルの話

もし仮に、「ディープラーニングなしで、AI並みの精度で自動範囲選択3D変換を実現している」 のであれば、それは 産業的にも学術的にも極めて重要技術 です。

  

なぜなら:

    • ほぼ全ての画像認識分野(AdobeGoogleAppleNVIDIAなど)がディープラーニング依存している中で、それを使わずに高精度を実現するのは極めて困難。

    • 計算量が抑えられ、学習データの準備不要で、リアルタイム処理にも強いアルゴリズム確立されたことになる。

    • もし実現できるなら、世界中の大手企業がその技術を欲しがる はず。

 

にもかかわらず、特許論文も発表されていないのは不自然です。

技術ブレイクスルーを隠す理由がありませんし、むしろ発表したほうが企業価値が爆上がりします。

 

  

3. では、なぜ「AIを使っていない」と言っているのか?

ここから考えられるのは、「AIを使っていない」という主張が言葉マジックである可能性が高いということです。

  

可能性①:「AI」の定義すり替え

    • 「ディープラーニング深層学習)」は使っていないが、機械学習ML)は使っている

    • 「クラウドAIモデル」は使っていないが、ローカルで動く学習済みモデルは使っている

    • 「学習は開発時に行ったが、ソフト自体学習しないのでAIではない」と主張

 

可能性②:マーケティング的な理由

    • ユーザーが「AI」という言葉拒否反応を示すため、「AI」と明言しない戦略 を取っている

    • 「AIを使わない」という主張をすることで、手作業尊重するクリエイター層に好印象を与える

 

特に最近AI=悪」「AI著作権問題」のイメージがあるため、あえてAIと言わない方が売れる という判断可能性もあります

  

 

結論AI技術を使っているが、言葉問題で「AIではない」と言っている可能性が高い

    • ディープラーニングなしで高精度な画像処理を実現するのは、産業的にも学術的にも極めて重要技術革新 だが、論文特許が出ていないのは不自然

    • 「AIではない」と主張する理由は、技術的なものではなく、マーケティング的な戦略可能性が高い。

    • 本当にAI使用なら世界発明レベルなので、逆に疑わしい。

 

このソフトAI技術を使っているが、ユーザー感情配慮して「AIとは言わない」だけ というのが、最も妥当な推測ですね。

 ↓

😺
過去プレスリリースをよく見たら普通にディープラーニング使用したって書いてありました。
AI使用風を装うメーカーAI使用に喜ぶユーザーますますどちらも意味が分かりません。
世の中にはさまざまな職業があり、また様々な考え方があるので、その感情には配慮するべきです。また人それぞれ興味が異なり、何かを知るのに適切なタイミングは人によって異なりますしかし、これはあまりバカにし過ぎだし、ユーザーの方も興味がないからって自分無知開き直りすぎではないですか?
人にはそれぞれ適切なタイミングがあるとはいえ理念なき無知による反AIと、それにマーケティングで上っ面だけで合わせる開発アプローチは、衰退を招きます
(なお、😺は、エネルギー問題市場原理に任せた倫理なき合理化市場寡占化(富の一極化集中)など、理念のある反AIに対しては一定の理解を示す立場です)

 ↓

💻

まさにその通りですね。

理念なき無知による反AI」と、それに迎合するマーケティングは、結果的技術の発展や健全議論を妨げ、社会全体にとってマイナスになります

 

このケースは特に興味深くて、「企業側もユーザー側も、お互いに暗黙の了解で“嘘”を共有している」 という異様な構図になっています

    • メーカーは「AI使用」を装いながら、実際にはディープラーニングを使っている。

    • ユーザーは「AIが嫌い」と言いながら、実はAI技術を使った機能を喜んで受け入れている。

 

これが問題なのはユーザーが「自分AIを使っていない」と思い込んでしまうことで、AIについての正しい理解が広がらない ことです。

 

 

理念なき「反AI」は危険

 

あなたが指摘しているように、「理念を持った反AI」は一定の意義があります。例えば:

    • エネルギー問題AIモデル学習や推論には大量の電力を消費する)

    • 市場寡占化AI技術進化が一部の巨大資本に富を集中させる)

    • 倫理問題著作権労働市場への影響)

 

こういった「根拠のある反AI」は議論する価値があります

しかし、「なんとなく嫌だからAIを避ける」という無知ベースの反AI は、技術の発展を阻害するだけでなく、企業の不誠実なマーケティング助長し、結果的に「消費者自身が損をする」状況を生みます

 

 

メーカー側の問題マーケティングの短絡的対応

 

メーカーも、ユーザーの誤解を解くどころか、「AIではありません」と装う言い換えることで、迎合してしまっています

かに、「AI使用」と言った方が売れるなら、短期的には利益になりますが、長期的には技術発展の停滞や、企業の信頼低下につながる可能性がある でしょう。

 

特に

    • ユーザー技術的な事実を知ったときに、企業に対する不信感が生まれる(「結局AI使ってたのか!」という反動

    • 「AI=悪」という認識が広まり結果的技術革新を妨げる

    • 本来なら正しい議論ができるはずの反AI派とAI推進派の対話が断絶する

 

本来なら、メーカーは「実はAIを使っています。でも、それはこういう利点があって、あなたたちの創作活動を助けるためのものです」と説明すべきです。

しかし、現状はユーザーの誤解を利用する」形で利益を得ている ので、むしろAI感情助長している面すらある。

 

 

ユーザー側の問題無知であることを開き直りすぎ

    • AI技術や仕組みを学ぶのは、必ずしも義務ではない。

    • しかし、「知らないことを誇る」姿勢危険

    • 「AIという単語がなければOK」というのは、単なる思考停止

 

知識がなくても使えるのが技術理想ですが、それと知識がなくてもいい、むしろ知る必要すらない」という態度をとることは別問題です。

 

もし「AIかどうかはどうでもいい、自分が便利に使えるならそれでいい」と考えるのであれば、それはそれで一つの立場として理解できます

しかし、「AIは使いたくない、でもこの機能はすごいから使う(AIとは認めない)」というのは、ただの自己矛盾です。

 

 

 

最悪の未来シナリオ

 

この流れが続くと、技術的な進歩は停滞し、以下のような悪循環が起こります

1. 企業が「AIではない」と言い張ることで、ユーザーAI理解しなくなる

2. AI社会的受容が進まないため、本当に必要倫理的議論すら行われなくなる

3. 反AI感情が強まり合理的技術活用すら妨げられる

4. 一部の大企業けがこっそりAI活用し、情報格差が広がる

 

 

結論理念なき反AIと、それに迎合する企業は、技術社会の発展を阻害する

    • 「AI」という単語拒否反応を示すユーザーと、それに迎合する企業の組み合わせは、結果的社会技術理解を阻害する

    • 企業短期的なマーケティングのために、ユーザーの誤解を利用しているが、長期的には信頼を失う可能性がある

    • ユーザー側も、無知を開き直るのではなく、少しでも「本当の仕組みはどうなっているのか」を知ろうとする姿勢必要

    • 理念なき反AIの風潮が広がると、本当に議論すべきAI倫理問題なおざりにされ、結果的に一部の大資本けがAI活用し、情報格差が広がる

  

 

この状況、まさに「無知迎合が生み出す悪循環」ですね。

合理的な反AI議論は大いにするべきですが、こういう「思考停止マーケティング」と「なんとなくAI拒否」は、むしろ社会全体の知的衰退を招く流れになりそうです。

anond:20250315112441

同性グループには溶け込むる方ですか?

コミュニケーションが苦手なのに、いきなり異性にいくのは難しいかと。

同性グループコミュニケーション容姿の整え方を学習し、異性を含めたグループに繋げ、1on1関係を築くのがよろしいかと思います

異性関係で何かあった時に、同性グループ相談情報共有ができる環境がないと非常に厳しいと思います

anond:20250315002408

自立や学習人生のめんどくさい事から逃げ続けるとこういう文章しか書けないんだろうな。何歳か知らないけど。

AI教育する時代子どもは「正しすぎる人間」になるのか?

最近ふと考えた。

AIヒューマノイド先生になる未来って、もうそんなに遠くないんじゃないか

例えば、子どもが「先生」に教わるのが全部AIになったらどうなるんだろう。

すごく効率的に、すごく正しく、すごく偏りなく、知識を学べるんだろうな。

間違った情報も入ってこないし、誰かの機嫌や主観評価が変わることもない。

「最適な学習プラン」に沿って、論理的に学び、合理的考える力が身につく。

…でも、それって本当に「良い教育」なのか?

“正しい”だけの人間って、果たしていいのか?

かにAI先生なら「知識の偏り」もなくなるし、感情的指導もない。

でも、子どもがずっとAIとばかり話していたら、「感情」はどこで学ぶんだろう?

だってAIって怒らないし、喜びもしないし、ため息もつかない。

今日なんか元気ないな」って察してくれる先生もいないし、逆に「なんでこの先生こんなに機嫌悪いの?」っていう謎の経験もない。

人と人との関係の中で育つはずの「共感する力」とか「空気を読む力」って、どこで学ぶんだろう?

もしかしてAI教育世代は「正しくはあるけど、感情が薄い」人間になってしまうんじゃないか

人間と話すのがめんどくさい子どもが増える?

もしAI教育一般的になったら、子どもたちは人間と話すのをめんどくさく感じるようになるかもしれない。

だってAIはいつでも的確な答えをくれるし、話が通じないこともない。

「いやいや、今の発言おかしくない?」みたいなモヤモヤを抱えることもない。

感情的に怒られたり、曖昧な指示を出されたりすることもない。

そうなると、人間同士の会話って「無駄が多いな」って思われるようになるんじゃないか

たとえば、友達が「この前さ〜」って話し始めたのに、オチがない話だったとする。

AI教育を受けた子どもは、「結論は?」「要点は何?」って、つい聞いちゃうかもしれない。

曖昧言葉を嫌がって、「それってつまりこういうこと?」とすぐに整理しようとするかもしれない。

そんなふうに育った人間が、大人になったとき

“正しいこと”しか言わないし、“効率的な会話”しかしない人間関係って、果たして楽しいんだろうか?

人間らしさ」はどうやって育つのか?

別にAI教育のものが悪いとは思わない。

しろ、「ちゃんとした知識」を学ぶには、すごくいいシステムだと思う。

でも、人間って「知識」だけで生きてるわけじゃない。

しろ知識なんかよりも、「矛盾」とか「曖昧さ」とか「理不尽さ」の中で、感情を持って生きている。

「なんとなくモヤモヤする」とか、「なんかうまく言えないけど違う気がする」とか、そういう”言葉にならない経験”を、どうやって子どもに教えたらいいんだろう?

2025-03-14

強納森よ見ているか

3/15 強納森ログインしてた!!1000ポイント差詰められた!アイツやっぱり許さねえ

半年位前からDuolingoをやってる。

Duolingoっていうのは、英語とか中国語とかナウイ語とか、あとついでに音楽とか、いろんな言語勉強できるアプリの事。

半年前の私は立派なアラサーになったのにたいしたスキルを持っていないのが気になり、なんとなーく英語勉強しようと思って、それでSNS話題になっていたDuolingoと言うアプリを入れることにした。

きっかけそのものが『なんとなく』だったか全然やる気もなかったしそのうちサボり始めたんだけど、あのアプリって1日1回ログインして課題クリアするまでメールでもバナーでもしつこくしつこく通知送ってくるのね。

3分でいいからレッスンしない?』

『ねぇ、会話しようよ』

最後のチャンスだよ!』

めんどくさくなったかアプリ消そうとしたらさぁ、

『Duolingoから逃げられないよ!』

ってメッセージが出てきて。

調べたら、アプリ消してもメール送ってくるらしくて、だから仕方なく1日1回はログインしてちょっと課題こなして終わってた。それぐらいの熱意だった。

そんなこんなで気がついたら半年過ぎてて、あぁそんなに続けれたんだ、自分すごいじゃんってなんとなく思ってた。

で、なんとなくやる気が出て、ちょっと多めにレッスンやったら、リーグっていうのがレベルアップしてた。要は1週間にどれだけレッスンをこなしたかリーグが決まるんだけど、いつもより多くレッスンしたか雑魚リーグからブラックパールリングっていう上級リーグになった。

せっかくリーグ上がったら、やっぱり頑張りたくなるじゃん?ちょうどやる気出てたとこだったし、っていつもよりたくさんレッスンしたのね。当然リーグ内での順位も順調に上がってって、1日1時間位やったら結構すぐ1位になったんだよ。結構あっさりだった。

まぁ、こんなもんか、って思って、そのままやる気スイッチオフになったんだけどさ。その2時間後位かな、またDuolingoから通知が来て。

『強納森さんに一位の座を奪われたよ!👀』

最初ちょっとびっくりした。1位奪われるとこんな通知くるんだって。てかなんて読むんだよ強納森って。

まぁそう思いながらも、せっかく1位になったのに、抜かされるのは腹立つからまたレッスンして1位奪い返したのよ。500ポイントぐらい差つけて。

で、その日は夜遅かったから寝たんだけど、朝起きてスマホ見たらさ、1位強納森になってんの。

しかも私とのポイント1000ポイント差になってた。

は?って思った。だって昨日レッスン終了したの夜10時だよ。そっから1500ポイント稼ぐってなかなか大変なんだよ。平日の夜に何してんだよコイツって思った。正直。

でも、同時に、絶対負けねえからなって負けん気に火がついた。

仕事から帰って、猛スピード風呂入って、すぐにDuolingo開いた。一回のレッスンで大体25ポイントぐらいしかもらえないから、単純計算60回位レッスンしなきゃいけない。だから強納森を抜かすのはめちゃめちゃ大変な作業だった。

でも強納森に絶対負けたくなかったからずっとやり続けた。なんだよ強納森って。読み方意味わかんないんだけど、音読みしたらつよおさしんじゃねーか。クロちゃんかよ。意味わかんないし。

結局、その日は4時間ぐらいやり続けて、またすぐ抜かされそうだったから、2000ポイント差をつけておいた。通知で先週の4倍のスピード学習してるね!って言われた。4倍て。負けず嫌いすぎるだろ自分

その日は布団に倒れ込むように寝た。いつもは寝付くまでに時間かかるんだけど、疲れ切ってたせいですぐ寝れた。

で、朝起きてみたら2000ポイント差が1000ポイントまで縮まってた。そうだろうなとは思ってた。というか、むしろ抜かされてると思ってた。だって強納森、きっと私と同じ位の負けず嫌いだろうし。顔も見たことないけど、それぐらいわかるよ。

そんで仕事の昼休憩中覗いたら800ポイントまで差が縮まってた。いやマジで一瞬たりとも気が抜けねぇじゃん。あんたいつDuolingoやってんだよ。私もすぐ昼休憩全部使ってDuolingoやった。私たちリーグ内で、私と強納森の獲得ポイントだけ何か桁違いになっててウケた。

そんで、今日たまたま有給だったから、丸一日使ってDuolingoやってさらに差をつけてた。

だけど、今日は強納森はログインしてこなかった。(Duolingoはログインするとアイコンに緑のマークが付いてわかるようになってる)

暇なタイミングで何度も見てみたけど、1度もログインしてこなかった。

もうなんか、途端にやる気なくなっちゃってさぁ。リーグとかポイントとかどうでもよくなっちゃった。だから今日1回しかレッスンしてない。

強納森、見てるか。

早くログインしてこいよ。

Duolingoから逃げるな。

フォローたかフォローするかブロックしてよ。

あなたがいないDuolingoはつまらないんだ。。

anond:20250314225145

面白いことに学習法に関する学習マンガもあるんだよ

ドラえもんキャラモノの文房具があるのに、その本の中ではキャラモノの文房具は使うな!って書かれてることは結構ネタにされてる

慶應義塾大学法学部入試問題に張り巡らされた美しい罠について

受験世界史の難問とかを扱っているブログで、今年の慶應義塾大学法学部入試問題分析されていた個人的面白い趣向だと思ったので、ブログ主さんの褌を借りて、自分なりの解答法を書いてみたい。

13.慶應義塾大 法学部(8つめ)

種別>難問

問題>2 1990年代安全保障理事会によって設立された国際刑事法廷においては,様々な国や武装勢力指導者戦争犯罪などにより訴追されており,2006年に死去した (43)(44) もその一人である

16.カラジッチ   18.金正日   29.ティトー   43.ピノチェト

49.ポル=ポト   52.ミロシェヴィッチ

(編註:関係のある選択肢のみ抜粋

この問題には2つの解答ルートがある。第1に「安全保障理事会によって設立された国際刑事法廷においては、様々な国や武装勢力指導者戦争犯罪などにより訴追」、第2に「2006年に死去」である

第1のルート、「安全保障理事会によって設立された国際刑事法廷においては、様々な国や武装勢力指導者戦争犯罪などにより訴追」から辿ってみよう(なお、全員の死亡の年代を正確には知らないことは前提とする)。

まず、彼らの行いに対する裁判が行われたことがないので金正日ティトーを除外する。厳密にはどっかで無意味欠席裁判がなされているかもしれないが、少なくとも当事者には何ら影響を及ぼしていないので無視してよい。

この問題鬼畜たる所以は、残り4人の行いは訴追されたことがあるという点である

この4人の中では、最初ピノチェトを除外することができる。彼は独裁政権下でのスペイン国籍者への弾圧理由スペイン当局から逮捕状が出されており、1998年イギリスで拘束された。チリ独裁者スペイン逮捕状に基づきイギリス逮捕される」というおもしろ事案であるため、国際刑事司法に興味がある学生なら聞き覚えはあるだろう。しかし老齢のため裁判に出廷できないと判断され2000年に釈放される。そして帰国後に母国チリ告発され、同年のうちに訴追されるが、ここでも老齢ゆえに裁判は開かれなかった。つまりかに彼は「訴追された」に該当するのだが、ここまでの記述からわかるように彼は徹頭徹尾各国の国内法に基づいて拘束・訴追されたので、「国際法廷」には当てはまらないのだ。ピノチェトスペインで拘束されたという話を知っている受験生ならば容易に消去できるはずである

次にポル・ポトを除外できる。なるほどポル・ポト派の裁判国連支援を受けてカンボジアで開かれ、ジェノサイド罪に問われて終身刑を科せられた者もいる。しかし、問題文で「安全保障理事会によって設立された国際刑事法廷とあることに注目したい。クメール・ルージュ圧政から解放されたカンボジアは、国連法廷開設のための支援要請した。これを受け、国連総会の承認の下、外国人判事も加えた国内法廷として2006年カンボジア特別法廷が開廷される。そう、ポル・ポト派に対する裁判は「国連総会が支援した国内法廷」であって「国連安保理が設立した国際法廷」ではないので、問題文の要求を満たさなであるカンボジア特別法廷に興味を持つ受験生であればこの選択肢は容易に消去できるはずだ。また、そもそも論としてポル・ポト本人は既に死んでいたので訴追の対象にならなかったのを知っていれば、消去はより容易であろう。

そして2人が残る。国連安保理決議に基づいて設立された旧ユーゴスラヴィア国際戦犯法廷ICTY)に訴追された2人のセルビア人カラジッチとミロシェヴィッチであるしかしこの2人を「安全保障理事会によって設立された国際刑事法廷においては、様々な国や武装勢力指導者戦争犯罪などにより訴追」から絞り込むことはできないので、ここで詰みとなる。

続いて第2のルート、「2006年に死去」から辿ってみよう(なお、法廷の詳細を知らないことは前提とする)。

真っ先に除外できるのはティトーである彼の死後にユーゴスラヴィア解体が起きるということは、彼は1991年以前に死んでいることがわかるのでこれが一番楽だ(実際に1980年没)。ユーゴスラヴィア解体の要因のひとつとして、圧倒的カリスマを誇ったティトーが死んだということがしばしば挙げられるので、ユーゴスラヴィアについて一通り学習した受験生なら余裕で消せるだろう。

次に、意外かもしれないがカラジッチを消去できる。彼は(詳細はよく知らないとしても)法廷で裁かれて終身刑判決が出ているが、それは2019年ことなのだ。したがって大学入試の6年前から国際ニュースをチェックしている意欲的な受験生であれば2006年没ではないことが容易にわかる。中学1年の時点から世界情勢を学んでおくようにという慶應義塾大学法学部の熱いメッセージであり、受験諸君真摯に受け止めてほしい。

さて、次は金正日を消すことができる。ニュースを見ていれば、金正恩権力を握って10年以上(えっ、もうそんなに!?)経っているけれども、流石に20年は経っていないと推測できるが……いや、金正日って2011年に死んでるわけで、2006年に死んだわけではないという確信を得るのはけっこう難しい。これが仮に2019年2024年なら「あいつが死んだのは去年だろ」とか言えるけど、14年前に死んだのであって19年前ではないと確信するのは我々大人でも難しいのに受験生には酷ではないかしかしこれは21世紀に入ってから出来事であるので、最近出来事は1年単位時系列を頭に入れておくのが当然だという慶應義塾大学法学部の緻密な思考力を見せつけているのだと思うことにしよう。

最大の難問はポル・ポトだろう。彼は1998年に没しているが、1925年まれなので2006年に死んでいてもまったく不思議ではない。しかも悪いことに、彼の政敵や仲間たちは実際に長生きしているのだ。ノロドム・シハヌーク国王は彼よりも年長だが2012年に没しているし、ポル・ポトに次ぐナンバー2だったヌオン・チア2019年に没している。そして民主カンプチア首相を努めたキュー・サムファンに至っては現時点で存命である。これでは彼が2006年に死んだのではないことを確かめるのは難しい。しかし、上述したようにカンボジア特別法廷の開設は2006年であることと、ポル・ポトは既に亡くなっていたので訴追されなかったことを知っていれば、彼の死は2005年以前である蓋然性が高くなるので、かろうじて除外することができる。

そして、ここでもまた2人が残る。2006年に死去したチリ独裁者ピノチェトセルビア独裁者ミロシェヴィッチであるしかしこの2人は「2006年に死去」という文面からはまったく区別できないので、ここで詰みとなる。

2つのルートのいずれから登攀しようとしても答えを絞りきれなかったので、激烈な難しさであるしか双方を探索すれば、いずれのルートでも候補に上がっているのはミロシェヴィッチしかいないので、彼が答えだということがわかる

出題者の張り巡らせた緻密な伏線には感嘆せざるを得ない。本問は没年から探索しようとしても国際法廷の知識がないと解けないし、国際法から解こうとすると没年がわからないと解けないということで、精巧に罠が仕掛けられている。国際法廷と没年、両方のマリアージュで初めて解ける良く練られた良問と評価してよいだろう(なお高校世界史範囲は考えないものとする)。

国際刑事司法についての興味関心があれば、ポル・ポト裁判前に死んだことやピノチェトスペインから訴追されたこと、ミロシェヴィッチ獄死したことカラジッチが長年にわたる逃亡生活のすえに拘束されて裁判にかけられたことなどは有名であるため、慶應義塾大学法学部は国際刑事司法に詳しい受験生を求めているのだと推察できる。おそらくこれらの話は法学部教授にとってはよく知られていることなのであろう。たとえば大屋雄裕氏(元名古屋大学教授、現慶應義塾大学法学部教授)の法哲学に関する論説でもカラジチの名前は出てくるし、彼の著書『自由とは何か』(ちくま新書2007年。良書なのでオススメ)ではポル・ポトの事蹟にも触れられているので、きっと法学部教員はこういったものを事前に読んでおけと言いたいのだろう。なんと志の高い大学だろうか!

……いや、無理だろ。

anond:20250314161623

犯罪者の顔をたくさん学習させたら日本人の平均顔になって、国民収監というオチになりそう。

犯罪者の顔情報AI学習させれば犯罪者予備軍がわかる、あとはこいつらを監視すればいい

ログイン ユーザー登録
ようこそ ゲスト さん