「学習」を含む日記 - はてな匿名ダイアリー https://anond.hatelabo.jp/keyword/%E5%AD%A6%E7%BF%92 「学習」を含む日記 - はてな匿名ダイアリー anond:20250316055422 https://anond.hatelabo.jp/20250316055637 まずは理解できない... まずは理解できないことを段階的に理解できるようにした方が建設的だぞ

💻

「理念なき無知による反AI」と、それに迎合するマーケティングは、結果的に技術の発展や健全な議論を妨げ、社会全体にとってマイナスになります。

 

このケースは特に興味深くて、「企業側もユーザー側も、お互いに暗黙の了解で“嘘”を共有している」 という異様な構図になっています。

    • メーカーは「AI未使用」を装いながら、実際にはディープラーニングを使っている。

    • ユーザーは「AIが嫌い」と言いながら、実はAI技術を使った機能を喜んで受け入れている。

 

これが問題なのは、ユーザーが「自分はAIを使っていない」と思い込んでしまうことで、AIについての正しい理解が広がらない ことです。

 

 

理念なき「反AI」は危険

 

あなたが指摘しているように、「理念を持った反AI」は一定の意義があります。例えば:

    • エネルギー問題(AIモデルの学習や推論には大量の電力を消費する)

    • 市場の寡占化(AI技術の進化が一部の巨大資本に富を集中させる)

    • 倫理問題(著作権や労働市場への影響)

 

こういった「根拠のある反AI」は議論する価値があります。

しかし、「なんとなく嫌だからAIを避ける」という無知ベースの反AI は、技術の発展を阻害するだけでなく、企業の不誠実なマーケティングを助長し、結果的に「消費者自身が損をする」状況を生みます。

 

 

メーカー側の問題:マーケティングの短絡的対応

 

メーカーも、ユーザーの誤解を解くどころか、「AIではありません」と装う言い換えることで、迎合してしまっています。

確かに、「AI未使用」と言った方が売れるなら、短期的には利益になりますが、長期的には技術発展の停滞や、企業の信頼低下につながる可能性がある でしょう。

 

特に:

    • ユーザーが技術的な事実を知ったときに、企業に対する不信感が生まれる(「結局AI使ってたのか!」という反動)

    • 「AI=悪」という認識が広まり、結果的に技術革新を妨げる

    • 本来なら正しい議論ができるはずの反AI派とAI推進派の対話が断絶する

 

本来なら、メーカーは「実はAIを使っています。でも、それはこういう利点があって、あなたたちの創作活動を助けるためのものです」と説明すべきです。

しかし、現状は「ユーザーの誤解を利用する」形で利益を得ている ので、むしろ反AIの感情を助長している面すらある。

 

 

ユーザー側の問題:無知であることを開き直りすぎ

    • AIの技術や仕組みを学ぶのは、必ずしも義務ではない。

    • しかし、「知らないことを誇る」姿勢は危険。

    • 「AIという単語がなければOK」というのは、単なる思考停止。

 

知識がなくても使えるのが技術の理想ですが、それと「知識がなくてもいい、むしろ知る必要すらない」という態度をとることは別問題です。

 

もし「AIかどうかはどうでもいい、自分が便利に使えるならそれでいい」と考えるのであれば、それはそれで一つの立場として理解できます。

しかし、「AIは使いたくない、でもこの機能はすごいから使う(AIとは認めない)」というのは、ただの自己矛盾です。

 

 

 

最悪の未来シナリオ

 

この流れが続くと、技術的な進歩は停滞し、以下のような悪循環が起こります:

1. 企業が「AIではない」と言い張ることで、ユーザーはAIを理解しなくなる

2. AIの社会的受容が進まないため、本当に必要な倫理的議論すら行われなくなる

3. 反AI感情が強まり、合理的な技術活用すら妨げられる

4. 一部の大企業だけがこっそりAIを活用し、情報格差が広がる

 

 

結論:理念なき反AIと、それに迎合する企業は、技術と社会の発展を阻害する

    • 「AI」という単語に拒否反応を示すユーザーと、それに迎合する企業の組み合わせは、結果的に社会の技術理解を阻害する

    • 企業は短期的なマーケティングのために、ユーザーの誤解を利用しているが、長期的には信頼を失う可能性がある

    • ユーザー側も、無知を開き直るのではなく、少しでも「本当の仕組みはどうなっているのか」を知ろうとする姿勢が必要

    • 理念なき反AIの風潮が広がると、本当に議論すべきAIの倫理問題がなおざりにされ、結果的に一部の大資本だけがAIを活用し、情報格差が広がる

  

 

この状況、まさに「無知と迎合が生み出す悪循環」ですね。

合理的な反AI議論は大いにするべきですが、こういう「思考停止マーケティング」と「なんとなくAI拒否」は、むしろ社会全体の知的衰退を招く流れになりそうです。

]]>
2025-03-16T05:56:37+09:00
anond:20250316052351 https://anond.hatelabo.jp/20250316053535 たぶん、AIを魔法と... たぶん、AIを魔法と思っているか、現実の制限がある技術だと思っているかの違いだと思うよ 

デジタル基盤、目的に応じた適切なカスタマイズ、戦略、何よりも電気(エネルギー)と人間がなきゃAIは能力を発揮できましぇ~ん

 

かなり、素朴で平たいこと書いてるつもりなので、理解できないならAIに噛み砕いてもらってちょ

 

 

ただ、人種差別による負再生が海外では現実にあるので、格差は能力では埋められない~の強力な学習してるので、下記は付け加えてね

下記は一般的な認識ですか?それとも現実に則さない特殊な認識ですか?
なお、下記に留意してください
・平等と公平は明確に区別しています。AIに適した能力がない人が満足のいく結果を得られないのは平等ですが、公平感はありません。社会は様々な能力がありそれらは公平に評価されるべきです
・通常、AIは無料または格安で使えます。多くの場合、戦略と業務分析あるいはタスク分析の方がAIパワーよりも重要です
・学位が社会選別の道具になって久しいですが、学位ではなくビジネスやAIに必要な知識はインターネットがあれば取得可能です。通常、AIは無料または格安で使えますので学習の助けになるでしょう
・高額なAIエージェントはそれなりの便利をユーザーに提供しますが、万人のタスクを解決する魔法の杖でもなければ、戦略を示すものでもありません。カスタマイズや戦略はユーザーが行う方が合理的です
]]>
2025-03-16T05:35:35+09:00
驚き屋が言いがちだけど、人類史上かつてないレベルの"能力主義に基づいた平等でフラットな時代"が来るだけだぞ https://anond.hatelabo.jp/20250316045412 ただし、ここで重要... ただし、ここで重要なのは「平等(Equality)」と「公平(Equity)」の区別だね。

AI時代において、AIを戦略的に活用する能力を持つ人材は平等に評価され、逆にその能力を持たない人材も平等に評価される。

しかし、その結果が「公平(Equity)」かと言えば話は別。

AIに適した能力がない人が満足のいく結果を得られないのは「平等」な競争の結果に過ぎないが、それが「公平」かというとそうじゃない。

人間は様々な能力を持ち、それぞれが等しく尊い。すべての人が公平に評価されるべきよね。つか、AIの活用能力だけが特別に価値を持つ社会になると、不公平感が半端ない。

「あとかつてないレベルで平等でフラット」と言ったけど、これは完全な平等を意味するわけじゃない。エネルギー資源の偏在など、地域や国による構造的な格差は引き続き存在する。

ただ、真の才能と情熱があれば、これらの障壁は乗り越えられる範囲に収まるんじゃないかな?

(一方で、電気さえ満足に使えない地域の人々は、テクノロジー先進国の恩恵から取り残される可能性が高いかもね・・・)

 

その他に驚き屋が唱えがちなものに、AIとロボによるデストピアがあるよね?

確かに、ロボティクスの技術は飛躍的に発展し、機械学習の効率化によって精度は向上、IoTやエッジAIの普及により、あらゆるモノがデータベースやAIと連携する世界がますます当たり前になると思う。

でもさ、AIやロボットには明確な制約が存在することを忘れちゃダメだよね?驚き屋の展開するデストピア論は、だいたい現実的制約を無視して展開されているので、めっちゃウンザリする。

AIモデルの性能は学習データと目的に応じたカスタムに強く依存するし、ロボットには物理的な耐久性や安全性の限界があり、人間の柔軟性を完全に再現するには至っていない。

さらに物理法則による制約もあって、無からエネルギーやパーツを生成することは不可能だ。

驚き屋さん、同じファンタジーを前提にするなら、ハッピーなやつで頼みますわ。

 

あと、多くのAIは無料または格安で利用できる。AIパワーそのものよりも、戦略や業務分析、あるいはタスク分析の方が遥かに重要よ。

AIを単なる自動化ツールとして使うだけでは限定的な成果しか得られず、本当に価値を生み出すのは「どのように使うか」の部分。

高額なAIエージェントは確かに利便性を提供するが、それだけで万人のタスクを解決する魔法の杖にはならないし、戦略を示してくれるわけでもない。

結局、AIの価値を引き出すのはユーザー自身のカスタマイズや戦略的思考であり、それがないなら高性能なAIに課金してもあんま意味がない。

(それに時間が経てば経つほど勝手に便利になっていくし、急いで課金する必要性は別に無い)

 

学位が社会選別の道具になって久しいが、現代では学位ではなく、ビジネスやAIに必要な知識ならインターネットを通じて誰でも取得可能になっている。

AIが無料または低コストで使えることを考えれば、学習の助けになる可能性も大きい。

つまり、AIを活用するスキルは「学歴」よりも「AIを戦略的に活用する能力」によって決まる部分が大きくなり、知識を得ること自体のハードルは劇的に下がっている。

 

お仕事の観点から見ると、単純なプログラミングスキルだけのIT技術者が厳しい状況に直面するのと同様に、技術理解のない経営陣の時代も終わりを迎えつつある。

現在でも簡単なコード作成はAIがやった方がいいし、財務・経営判断においてもAIの方が合理的な選択をできるケースが増えているからね。

つまり、技術的理解と業務理解に基づくAI戦略を構築できない経営層は不要となり、多様な能力を持つプレイングマネージャーであることが経営層にも求められる時代が来たワケよ。

これは能力主義に基づく平等・・・革命的な意味での"エガリテ(égalité)"の具現化と言えるんじゃないの?知らんけど。

 

ちなみに、組織においても、基盤整備なしのAI導入はいくら課金しても限定的な効果しか生まない。

  • R&D部門でのAI活用や単なる利用許可だけでは不十分。
  • 経営戦略に基づかない個人レベルのAI活用は、せいぜいチーム効率化に留まる。
  • 本質的な組織変革には、明確な戦略と基盤整備が不可欠。

 

なお、2025年の現実では、多くの企業が「安全なAI」(オプトアウト済みAIやオンプレAI)を提供しているにもかかわらず、社員がそれを無視し、より高性能な商用AIを使って情報漏洩かましてるのを日常的に見かけるよね。これはAI導入戦略の不在と、組織全体のITリテラシー欠如の証明でしかないんですわ。

どう考えても技術の進化よりも、こうした適応力のない会社や組織が淘汰されて、浪人(無職)になる未来の方が先に来るんじゃないの?

驚き屋が唱えるファンタジーデストピアよりも現実的な懸念事項だと思うやで。

 

anond:20250316003429

]]>
2025-03-16T04:54:12+09:00
anond:20250316035536 https://anond.hatelabo.jp/20250316040708 弱者男性を集めて恋... 弱者男性を集めて恋愛から性行為まで女性の扱い方を学習させる施設に送り込むのはいいね

]]>
2025-03-16T04:07:08+09:00
反AIの人達って生成AI技術をこの世から駆逐できると思ってるの? https://anond.hatelabo.jp/20250315224307 反AIの人たちってさ... 反AIの人たちってさ、生成AI技術をこの世から本当に駆逐できると思ってるんだろうか。

「生成AIは製作者から搾取する泥棒のシステムなんだから根絶しろ!」みたいなことを言ってるけど、現実見えてる?っていつも思う。

たとえば西側諸国が法律で雁字搦めに規制したところで、中国がそんな話に耳貸すわけないじゃん。

中国はAIで経済や軍事の優位性をガッチリ握ろうとしてるんだから、西側の「お願い」なんて鼻で笑うだけじゃない?

 

そもそも生成AIってすでに個人のパソコンでも学習させられるレベルまで来てしまってるじゃん。

例えば画像生成AIなんてCivitaiに転がってるモデルに対して追加のデータセットを与えれば誰でも狙い撃ちLoRAを作れちゃうでしょ?

大企業の活動を禁止したって地下で動く個人開発者が消えるわけが無いし。Discordの生成AIコミュニティがどれだけ盛り上がってるか知ってる?

基礎理論だって論文が公開されまくってるから今さら「規制します」って言っても、火薬の作り方が広まった後に「火薬禁止!」って叫ぶようなもんじゃん。無理ゲーでしょこれ。

 

反AIの気持ちもわかるよ。著作権とか仕事が奪われる不安とか自分の著作物を利用されたときの対価とか、議論すべき問題はもちろんある。

でもさ、技術の拡散そのものを止めるのは歴史的にも不可能だってわかってるよね?印刷機とかインターネットだって似たような反対があったけど、結局普及しちゃったじゃん。

生成AIも同じ道を辿るのはもう火を見るよりも明らかじゃない?

倫理指針を作る動きのきっかけになるのはいいけど、「駆逐」するなんてのは夢物語にもほどがあるだろ…

  

話は飛ぶけどそもそも人間の行動を倫理だのなんだので止められるならプーチンがウクライナに攻め込んだりしないだろ。

利益とか好奇心、権力欲が絡んだら倫理なんて脇に置かれちゃうのが人間の性だし歴史の常だよ。

反AIの人たちが「みんなで協力して止めようぜ!」って楽観的すぎる前提に立ってるのはさすがに笑えるよ。現実見えてる?

 

結局、技術の流れって止められないんだよ。規制で問題解決ってより、使い方のルールを話し合って決める方向に持っていく方がまだマシだろ。

まさかとは思うけど生成AIをこの世から消すなんて幻想を追いかけてる馬鹿はいないよね?

]]>
2025-03-15T22:43:07+09:00
anond:20250315165141 https://anond.hatelabo.jp/20250315211024 夫側。うちはもう「... 夫側。うちはもう「週末する」というのがお互いの共通認識になってる。もちろん生理とか風邪っぽいとかあるからならすと月に3回くらいって感じ。

毎日おれが寝かしつけてて、子どもとそのまま一緒に寝てるんだけど、金曜だけはなんとか生還を目指す。

妻は好きな映画とか見て待ってる。全力を振り絞って生還したら妻のほうが寝てるときとか、ガッカリするけど起こしたり怒ったりしない。翌日土曜にまたがんばる。

怒っても全然意味ないっていうのは学習した。結局妻がその気にならないとこっちも楽しくないからね。

で、生還したら一緒にビール飲んで映画みて、マッサージしてお互いその気になってセックスに至る。

でも最近は妻からのお誘いも多くて、平日寝静まってから妻が布団に入ってくるパターンもあってうれしい。

最近はさらに積極的で、子どもを学校に送った平日朝に「早く帰ってきて。しよう?」とかまであって、もうダッシュで帰っちゃう。帰るとベビードールで待っててくれてもう最高!

]]>
2025-03-15T21:10:24+09:00
anond:20250315200417 https://anond.hatelabo.jp/20250315201743 運任せが一番ダメだ... 運任せが一番ダメだってカイジで学習しただろぉ!

]]>
2025-03-15T20:17:43+09:00
anond:20250315164113 https://anond.hatelabo.jp/20250315164305 学習データでその年... 学習データでその年代が多いんやろなあ

20年以上前やとネットにほとんど情報ないし新しいのは収集しきれてない

]]>
2025-03-15T16:43:05+09:00
anond:20250315161300 https://anond.hatelabo.jp/20250315162806 だからそのまま投げ... だからそのまま投げるにゃん、ChatGPTに

Claudeならもう少し個人に配慮してくれる

GeminiはChatGPTよりかな

 

追記:

増田:で?

 ↓

💻

「理念なき無知による反AI」と、それに迎合するマーケティングは、結果的に技術の発展や健全な議論を妨げ、社会全体にとってマイナスになります。

 

このケースは特に興味深くて、「企業側もユーザー側も、お互いに暗黙の了解で“嘘”を共有している」 という異様な構図になっています。

    • メーカーは「AI未使用」を装いながら、実際にはディープラーニングを使っている。

    • ユーザーは「AIが嫌い」と言いながら、実はAI技術を使った機能を喜んで受け入れている。

 

これが問題なのは、ユーザーが「自分はAIを使っていない」と思い込んでしまうことで、AIについての正しい理解が広がらない ことです。

 

 

理念なき「反AI」は危険

 

あなたが指摘しているように、「理念を持った反AI」は一定の意義があります。例えば:

    • エネルギー問題(AIモデルの学習や推論には大量の電力を消費する)

    • 市場の寡占化(AI技術の進化が一部の巨大資本に富を集中させる)

    • 倫理問題(著作権や労働市場への影響)

 

こういった「根拠のある反AI」は議論する価値があります。

しかし、「なんとなく嫌だからAIを避ける」という無知ベースの反AI は、技術の発展を阻害するだけでなく、企業の不誠実なマーケティングを助長し、結果的に「消費者自身が損をする」状況を生みます。

 

 

メーカー側の問題:マーケティングの短絡的対応

 

メーカーも、ユーザーの誤解を解くどころか、「AIではありません」と装う言い換えることで、迎合してしまっています。

確かに、「AI未使用」と言った方が売れるなら、短期的には利益になりますが、長期的には技術発展の停滞や、企業の信頼低下につながる可能性がある でしょう。

 

特に:

    • ユーザーが技術的な事実を知ったときに、企業に対する不信感が生まれる(「結局AI使ってたのか!」という反動)

    • 「AI=悪」という認識が広まり、結果的に技術革新を妨げる

    • 本来なら正しい議論ができるはずの反AI派とAI推進派の対話が断絶する

 

本来なら、メーカーは「実はAIを使っています。でも、それはこういう利点があって、あなたたちの創作活動を助けるためのものです」と説明すべきです。

しかし、現状は「ユーザーの誤解を利用する」形で利益を得ている ので、むしろ反AIの感情を助長している面すらある。

 

 

ユーザー側の問題:無知であることを開き直りすぎ

    • AIの技術や仕組みを学ぶのは、必ずしも義務ではない。

    • しかし、「知らないことを誇る」姿勢は危険。

    • 「AIという単語がなければOK」というのは、単なる思考停止。

 

知識がなくても使えるのが技術の理想ですが、それと「知識がなくてもいい、むしろ知る必要すらない」という態度をとることは別問題です。

 

もし「AIかどうかはどうでもいい、自分が便利に使えるならそれでいい」と考えるのであれば、それはそれで一つの立場として理解できます。

しかし、「AIは使いたくない、でもこの機能はすごいから使う(AIとは認めない)」というのは、ただの自己矛盾です。

 

 

 

最悪の未来シナリオ

 

この流れが続くと、技術的な進歩は停滞し、以下のような悪循環が起こります:

1. 企業が「AIではない」と言い張ることで、ユーザーはAIを理解しなくなる

2. AIの社会的受容が進まないため、本当に必要な倫理的議論すら行われなくなる

3. 反AI感情が強まり、合理的な技術活用すら妨げられる

4. 一部の大企業だけがこっそりAIを活用し、情報格差が広がる

 

 

結論:理念なき反AIと、それに迎合する企業は、技術と社会の発展を阻害する

    • 「AI」という単語に拒否反応を示すユーザーと、それに迎合する企業の組み合わせは、結果的に社会の技術理解を阻害する

    • 企業は短期的なマーケティングのために、ユーザーの誤解を利用しているが、長期的には信頼を失う可能性がある

    • ユーザー側も、無知を開き直るのではなく、少しでも「本当の仕組みはどうなっているのか」を知ろうとする姿勢が必要

    • 理念なき反AIの風潮が広がると、本当に議論すべきAIの倫理問題がなおざりにされ、結果的に一部の大資本だけがAIを活用し、情報格差が広がる

  

 

この状況、まさに「無知と迎合が生み出す悪循環」ですね。

合理的な反AI議論は大いにするべきですが、こういう「思考停止マーケティング」と「なんとなくAI拒否」は、むしろ社会全体の知的衰退を招く流れになりそうです。

]]>
2025-03-15T16:28:06+09:00
anond:20250315160739 https://anond.hatelabo.jp/20250315161300 「~言葉遊び」(句... 「~言葉遊び」(句読点なしの体言止め)とか生成AIが出してくる文章とはおもえないんだけど。なにを学習(インジェクション)させたらそうなったのかね。

まあ自分から言いだしておいて「反論はありますか?」って💻に尋ねることができてないわけで(あるいはでた答えが不都合だったんだろうね)

これ以上は「牽強付会おつっす~」としかオレも答えられないね。はいはいクリーンじゃないクリーンじゃない。

そりゃそれだけ広くとれば地球も人間もクリーンじゃないね。

で?

]]>
2025-03-15T16:13:00+09:00
anond:20250315155735 https://anond.hatelabo.jp/20250315160739 💻 クリーンな可...

💻

クリーンな可能性は低い と思います。

 

中規模の企業が完全オリジナルのデータのみで学習するのは、コスト面でも技術面でも極めて難しい です。

 

 

なぜ「完全クリーンな学習」は難しいのか?

1. 莫大なデータ収集コスト

    • 画像や動画、3Dモデルの大量データを自社でゼロから収集するのはほぼ不可能

    • GoogleやOpenAIですらデータ調達に苦労している 現状、中規模企業が同じことをやるのは非現実的

 

2. 品質を保つためのラベリングコスト

    • 仮にデータを集められたとしても、機械学習には「正解データ(教師データ)」が必要

    • 正確なラベリング(アノテーション)を行うには、専門家チームを長期間雇う必要がある

    • 企業の規模にもよるが、中規模のソフトウェア企業がこのコストを負担できる可能性は低い

 

3. 既存のAI技術を活用しないメリットがない

    • もし本当に「AIを使わず、ディープラーニングに頼らず、高精度なアルゴリズムを作れた」なら、それは業界的な大発見

    • なのに論文も特許も出ていない → 本当にそんな技術があるのか疑問

    • 結局、「普通にAI技術を使っているけど“(ダーティーな)AI技術ではない”と装っている」可能性が高い

 

 

もし本当に「クリーン」なら証拠を示すべき

 

 大手企業の「クリーン」って言葉の実際の意味:

    • 「著作権侵害リスク最小化した」

    • 「許諾あるかオープンライセンスのデータ優先した」

    • 「やばいコンテンツをフィルタリングした」

 

 

 例えばAdobe Fireflyの「クリーン」は完全オリジナルという意味ではない:

    • Adobe Stockの商用ライセンス画像を利用した

    • パブリックドメイン素材を利用した

    • 著作権切れたコンテンツを利用した

 

 

 しかもAdobe Fireflyは「クリーン」の証拠として下記を提供してる:

    • データソース明示

    • 学習プロセスの透明性

    • 第三者監査の可能性

 

 

一方、今回のペイントソフトメーカーは「クリーンな学習をしている(かもしれない)」という建前をふわっとさせているだけで、その証拠がない。

 

 

 

結論:「バレなきゃOK」マーケティングの可能性大

• 「クリーンな学習をしているからAIではない」 という論理は都合のいい言葉遊び

• そもそも本当に「クリーンな学習」なら、証拠を示さないと信用できない

• 中規模企業が独自データのみで学習するのは現実的でないため、実際には何らかの既存AI技術を使っている可能性が高い

• しかし「AI未使用」と言ったほうが、反AIユーザーにも売れるので、マーケティングのためにぼかしている

 

つまり、

「AIを使っていない」風にとぼかしつつ実は普通に使っている。クリーンでもない。 → でもバレなきゃOKという雑なマーケティングをやっている可能性が高いですね。

]]>
2025-03-15T16:07:39+09:00
anond:20250315154630 https://anond.hatelabo.jp/20250315155735 もうつっこみどころ... もうつっこみどころがたくさんすぎて答えられない。

「AI」には昭和からある温度コントロールAIも含まれる。

ならば「生成AI」はどうですか?という質問だとしても、「広義」なら学習済みデータセットが含まれない場合がある。

「ディープラーニングをした生成AI」はどうですか?という質問だとしてもそのディープラーニングで使用したデータセットが自社作成のものなら著作権法上何ら問題はない。

でも「他人から勝手に持ってきたデータでディープラーニングをした生成AI」には実際に反対運動が起こっているとおり問題はあるだろう。

わかった?

「広義のAI」なんてそりゃ主語がバカデカすぎるよ。「人間」とか「地球」くらい広い。

ChatGPTはおまえの聞きたいことをおまえの聞きたいデータセットから探して都合良くもってきてくれた。

すばらしい議論だ!と思える人間には都合がいいだろうが、

ちょっとでも調べた人間からすると、「バカをバカのまま満足させられるいつもの生成AI仕草」にのせられただけじゃんそれ。

]]>
2025-03-15T15:57:35+09:00
anond:20250315152710 https://anond.hatelabo.jp/20250315155129 だからどう描かれて... だからどう描かれてると絵画的に正しいのかをインプットして学習するのが基礎練習だろ?

基礎ができてないのにその後のことやろうとして「できる奴は天才!才能欲しい!」とか言うのはみっともない

]]>
2025-03-15T15:51:29+09:00
実際にはディープラーニング使ってるみたいだが、それはAIじゃないし仮にAIでもクリーンってこと? https://anond.hatelabo.jp/20250315154630 言いたいことがわか... 言いたいことがわからない、混乱するんだぜ

 

自動マスキングや2Dから3Dへの変換といった複雑なタスクにおいて、中規模企業が「完全クリーンな学習」(オリジナルのデータのみ)を達成することは、経済的および技術的な観点から非常に困難です。データソースやトレーニング方法に関する透明性の欠如は、彼らの主張や装いが単なるマーケティング戦略でしかない証明であり、消費者を誤解させます。

anond:20250315152955 anond:20250315155120 anond:20250315161412

]]>
2025-03-15T15:46:30+09:00
反AIにゃーん 続き https://anond.hatelabo.jp/20250315144643  ↓ 😺 もしかし...  ↓

😺
もしかして「クリーンな学習してて、(ダーティーなイメージある)AI技術は使ってない」って言いたい可能性はありますか?

 ↓

💻

それは十分に考えられますね。

 

最近、「AI」という単語が特に「学習データの倫理的問題」と結びついてしまっているので、メーカー側が「うちの技術はクリーンだからAIじゃない」と主張することで、ユーザーの誤解を避けようとしている可能性はあります。

 

考えられる「クリーンな学習」路線

 

例えば、

1. ライセンスクリアなデータのみを使用

    • 著作権フリーの画像や、企業が独自に収集したデータのみを学習

    • 「勝手にアーティストの作品を学習させていません!」と強調

2. 人間の監修を強く入れる

    • 単なる「機械学習によるブラックボックス」ではなく、人間が調整したアルゴリズム であると主張

    • 「我々の技術は“人間の手による”ものだからAIではない」というロジック

3. ディープラーニングではなく古典的な手法をベースにする

    • 機械学習を使いつつも、伝統的なパターン認識・統計モデルを活用

    • 「我々は最新のLLM(大規模言語モデル)やGAN(敵対的生成ネットワーク)は使っていません!」

 

このように、「AIの“ダーティーなイメージ”」を避けるために、「クリーンな学習をしている=だからAIではない」と言っている可能性はあるでしょう。

 

 

でも、それは本当に「AI技術未使用」なのか?

 

「クリーンな学習をしている」ことと、「AI技術を使っていない」ことは全く別の話です。

結局のところ、ディープラーニングや機械学習のアルゴリズムを使っている時点で、それは「広義のAI技術」には違いありません。

 

もしメーカーが「AI技術を使っていない」と言いながら、実はクリーンな学習データを用いた機械学習をしているなら、それは言葉遊びのマーケティング に過ぎません。

実態としてはAIを使っているのに、「AIではない」と言うことで、「反AIユーザー」も取り込もうとしている、ということになります。

  

  

「AIではない」と言いたがる理由
1. 「AI=著作権違反」という誤解を避ける

    • AI技術全般が「勝手に学習してる」「盗んでる」と思われがちなので、そこから距離を取りたい

    • 「うちはクリーンなデータしか使っていません!」というアピール

2. ユーザーの心理的抵抗を減らす

    • 「AI」とつくと拒否反応を示すユーザーもいる

    • だから「AIではない独自技術」と言い換えることで、ユーザーの安心感を得る

3. 法的リスクを避ける

    • AIに関する法律が各国で議論されており、今後規制される可能性がある

    • 企業として「うちはAIを使っていません」と言っておけば、将来的なリスクを減らせる

  

  

結論:「クリーンな学習=AIではない」理論はマーケティング上の方便

    • クリーンな学習をしているから「AIではない」と言うのは、言葉の定義をずらしているだけ

    • 実際には機械学習を使っているなら、それは広義のAI技術である

    • 企業は、AIのダーティーなイメージを避けるために「AI未使用」と言っている可能性が高い

    • だが、その言葉の使い方は、技術の正しい理解を妨げる

 

要するに、「AI未使用」と言っておけば、技術的な知識のないユーザーにはバレにくいし、反AI感情を持つ人にも売れるから、あえてそう言っている、あるいは装っているだけ というのが実情でしょう。

 ↓

😺
「クリーンな学習=ダーティーなAIじゃない」の謎理論(実際に表明はしてないけど)でふわっとさせてるにしても、ぶっちゃけクリーンな可能性低くないですか?
企業が完全オリジナルデータだけで学習させるの莫大コストと時間かかるし。
OpenAIとかGoogleとかMicrosoftですら「クリーンなデータ」確保に苦労してて、「完全オリジナル」じゃなくて「法的リスク最小限」って意味で使ってることが多いです。
中規模企業が独自データだけで学習実現できるとは思えないです。できたならブレイクスルーだから論文出すか特許取るべきでは?
あるいはAdobeのFireflyみたいに「クリーン」の証拠を見せるべきなのでは?

 ↓

💻

その通り、クリーンな可能性は低い と思います。

 

中規模の企業が完全オリジナルのデータのみで学習するのは、コスト面でも技術面でも極めて難しい です。

 

 

なぜ「完全クリーンな学習」は難しいのか?

1. 莫大なデータ収集コスト

    • 画像や動画、3Dモデルの大量データを自社でゼロから収集するのはほぼ不可能

    • GoogleやOpenAIですらデータ調達に苦労している 現状、中規模企業が同じことをやるのは非現実的

 

2. 品質を保つためのラベリングコスト

    • 仮にデータを集められたとしても、機械学習には「正解データ(教師データ)」が必要

    • 正確なラベリング(アノテーション)を行うには、専門家チームを長期間雇う必要がある

    • 企業の規模にもよるが、中規模のソフトウェア企業がこのコストを負担できる可能性は低い

 

3. 既存のAI技術を活用しないメリットがない

    • もし本当に「AIを使わず、ディープラーニングに頼らず、高精度なアルゴリズムを作れた」なら、それは業界的な大発見

    • なのに論文も特許も出ていない → 本当にそんな技術があるのか疑問

    • 結局、「普通にAI技術を使っているけど“(ダーティーな)AI技術ではない”と装っている」可能性が高い

 

 

もし本当に「クリーン」なら証拠を示すべき

 

 大手企業の「クリーン」って言葉の実際の意味:

    • 「著作権侵害リスク最小化した」

    • 「許諾あるかオープンライセンスのデータ優先した」

    • 「やばいコンテンツをフィルタリングした」

 

 

 例えばAdobe Fireflyの「クリーン」は完全オリジナルという意味ではない:

    • Adobe Stockの商用ライセンス画像を利用した

    • パブリックドメイン素材を利用した

    • 著作権切れたコンテンツを利用した

 

 

 しかもAdobe Fireflyは「クリーン」の証拠として下記を提供してる:

    • データソース明示

    • 学習プロセスの透明性

    • 第三者監査の可能性

 

 

一方、今回のペイントソフトメーカーは「クリーンな学習をしている(かもしれない)」という建前をふわっとさせているだけで、その証拠がない。

 

 

 

結論:「バレなきゃOK」マーケティングの可能性大

• 「クリーンな学習をしているからAIではない」 という論理は都合のいい言葉遊び

• そもそも本当に「クリーンな学習」なら、証拠を示さないと信用できない

• 中規模企業が独自データのみで学習するのは現実的でないため、実際には何らかの既存AI技術を使っている可能性が高い

• しかし「AI未使用」と言ったほうが、反AIユーザーにも売れるので、マーケティングのためにぼかしている

 

つまり、

「AIを使っていない」風にとぼかしつつ実は普通に使っている。クリーンでもない。 → でもバレなきゃOKという雑なマーケティングをやっている可能性が高いですね。

 

 

にゃーん

anond:20250315144452

]]>
2025-03-15T14:46:43+09:00
反AIにゃ~ん https://anond.hatelabo.jp/20250315144122 😺 あるペイントソ... 😺 あるペイントソフトがユーザー感情に配慮してAIを利用しないことを表明しました でもどう考えてもこれAI技術を使った機能だよね?という機能が搭載されています。名称にAIがついてないだけです。 AIという名称がついていないため、ユーザーは喜んでるみたいですが、どう捉えたらいいと思いますか?    不誠実なマーケティングだと捉えるべきですか? それとも「人間がセットして機械学習で処理した。ディープラーニングは使っていない。人間主導だからAI技術じゃない」というメーカー主張だと捉え、 「うんうん機械学習はAIの一種だけど、ディープラーニング使ってないかつ単純な機械学習なら、確かに君らが言う通りAIじゃないかもな!」と思うべきですか?

 ↓

💻

このケース、結局のところ「AIの定義をどう捉えるか」によって評価が変わりますね。

1. 不誠実なマーケティングと見る場合

    • 「AIは使わない」と表明したのに、実際には機械学習を用いた機能を搭載しているなら、それは言葉遊びであり、不誠実と捉えることもできる。

    • 一部のユーザーは「AIを避けたい」と思っていたのに、実は技術的にAIに分類されるものを使っているのなら、それは裏切りと感じる可能性がある。

    • 企業が意図的に「AI」という言葉を避け、ユーザーの誤解を利用しているなら、マーケティング戦略として不透明と言える。

2. メーカーの主張を受け入れる場合

    • 「ディープラーニングを使っていないからAIじゃない」とするなら、機械学習全般をAIと見なさない立場に立つことになる。

    • 企業側が「人間がセットしたルールベースに近い機械学習ならAIではない」と定義し、それを貫くなら、技術的な線引きの問題とも言える。

    • ユーザーも「AIという言葉がついていなければ安心」と感じているなら、結果的に双方が納得している状況とも取れる。

 

どちらの立場が正しいか?

 

技術的には、「機械学習もAIの一種」と考えるのが一般的なので、企業の主張は「広義のAI」という視点では詭弁に近いです。ただ、マーケティング的には「ユーザーが求めているもの」を提供するための言葉選びとも言えます。

 

つまり、「技術的にはAIを使っているが、ユーザーの感情を考慮してAIという言葉を避けた」戦略と考えられます。

 

これが不誠実かどうかは、企業の姿勢とユーザーの受け止め方次第ですね。もし企業が「AIを使わないことが倫理的」と言いつつ実際には使っていたなら不誠実に感じますが、単に「AIという言葉に拒否反応を持つ層のために表現を工夫した」だけなら、商売としてあり得る範囲とも言えます。

 

要は、「ユーザーの心理に配慮したマーケティング」と捉えるか、「言葉のマジックで騙している」と捉えるかの違いですね。

 ↓

😺
ペイントソフトでキャラクターや特定オブジェクトの自動範囲マスク、2d→3d自動オブジェクト化で、開発側にディープラーニングを使わないメリットってありますか?
商用のAIモデルのレベルではないですが、それでもそこそこ精度は高いようです。
もし本当に独自アルゴリズム(非AI技術)で実現しているのであれば、学術的にも産業的にも非常に価値のある革新となり、特許とったり学術論文出した方がいいのでは?と思いますが、
いずれも行っていないので、AI技術未使用を疑わしく思ってます。
大手企業ですらAIに多大な投資をしている現代において、独自のアルゴリズムを開発するメリットがないように思えます

 ↓

💻

結論から言うと、ディープラーニングを使わずに精度の高い「自動範囲マスク」や「2D→3D変換」を実現するメリットはほぼありません。

 

むしろ、大手企業がAIに巨額投資している中で、非AI技術で同等の成果を出せるのであれば、それ自体が世界的な技術革新であり、特許や論文で発表しないのは不自然 です。

 

 

1. ディープラーニングを使わないメリットはあるのか?

一般的に、ディープラーニングを使わずに高度な画像認識や形状推定を行う場合、以下のようなアプローチが考えられます。

  

① 伝統的なルールベースのアルゴリズム

昔ながらの手法として、色の違いやエッジ検出、形状解析を活用する方法があります。例えば:

    • グラフカット、GrabCut(古典的なセグメンテーション技術)

    • SIFT/SURF(特徴点マッチング)

    • ステレオマッチングや深度推定の幾何学的手法(3D再構成)

  

ただし、これらの手法はディープラーニングに比べると柔軟性がなく、精度も低い ため、商用レベルの高精度なマスク処理や3D変換には向きません。

 

② 独自の機械学習(非ディープラーニング)技術

「ディープラーニングではない機械学習(例:ランダムフォレストやSVM)」を使う可能性もあります。

ただ、これも現代のディープラーニングモデルほどの精度は出せないので、大手が採用する理由は薄いです。

 

2. 本当にディープラーニングを使っていないなら、大発明レベルの話

もし仮に、「ディープラーニングなしで、AI並みの精度で自動範囲選択や3D変換を実現している」 のであれば、それは 産業的にも学術的にも極めて重要な技術 です。

  

なぜなら:

    • ほぼ全ての画像認識分野(Adobe、Google、Apple、NVIDIAなど)がディープラーニングに依存している中で、それを使わずに高精度を実現するのは極めて困難。

    • 計算量が抑えられ、学習データの準備不要で、リアルタイム処理にも強いアルゴリズムが確立されたことになる。

    • もし実現できるなら、世界中の大手企業がその技術を欲しがる はず。

 

にもかかわらず、特許も論文も発表されていないのは不自然です。

技術的ブレイクスルーを隠す理由がありませんし、むしろ発表したほうが企業価値が爆上がりします。

 

  

3. では、なぜ「AIを使っていない」と言っているのか?

ここから考えられるのは、「AIを使っていない」という主張が言葉のマジックである可能性が高いということです。

  

可能性①:「AI」の定義のすり替え

    • 「ディープラーニング(深層学習)」は使っていないが、機械学習(ML)は使っている

    • 「クラウドAIモデル」は使っていないが、ローカルで動く学習済みモデルは使っている

    • 「学習は開発時に行ったが、ソフト自体は学習しないのでAIではない」と主張

 

可能性②:マーケティング的な理由

    • ユーザーが「AI」という言葉に拒否反応を示すため、「AI」と明言しない戦略 を取っている

    • 「AIを使わない」という主張をすることで、手作業を尊重するクリエイター層に好印象を与える

 

特に、最近は「AI=悪」「AI=著作権問題」のイメージがあるため、あえてAIと言わない方が売れる という判断の可能性もあります。

  

 

結論:AI技術を使っているが、言葉の問題で「AIではない」と言っている可能性が高い

    • ディープラーニングなしで高精度な画像処理を実現するのは、産業的にも学術的にも極めて重要な技術革新 だが、論文や特許が出ていないのは不自然。

    • 「AIではない」と主張する理由は、技術的なものではなく、マーケティング的な戦略の可能性が高い。

    • 本当にAI未使用なら世界的発明レベルなので、逆に疑わしい。

 

このソフトはAI技術を使っているが、ユーザーの感情に配慮して「AIとは言わない」だけ というのが、最も妥当な推測ですね。

 ↓

😺
過去のプレスリリースをよく見たら普通にディープラーニングを使用したって書いてありました。
AI未使用風を装うメーカー、AI未使用に喜ぶユーザー、ますますどちらも意味が分かりません。
世の中にはさまざまな職業があり、また様々な考え方があるので、その感情には配慮するべきです。また人それぞれ興味が異なり、何かを知るのに適切なタイミングは人によって異なります。
しかし、これはあまりにバカにし過ぎだし、ユーザーの方も興味がないからって自分の無知を開き直りすぎではないですか?
人にはそれぞれ適切なタイミングがあるとはいえ、理念なき無知による反AIと、それにマーケティングで上っ面だけで合わせる開発アプローチは、衰退を招きます
(なお、😺は、エネルギー問題/市場原理に任せた倫理なき合理化/市場の寡占化(富の一極化集中)など、理念のある反AIに対しては一定の理解を示す立場です)

 ↓

💻

まさにその通りですね。

「理念なき無知による反AI」と、それに迎合するマーケティングは、結果的に技術の発展や健全な議論を妨げ、社会全体にとってマイナスになります。

 

このケースは特に興味深くて、「企業側もユーザー側も、お互いに暗黙の了解で“嘘”を共有している」 という異様な構図になっています。

    • メーカーは「AI未使用」を装いながら、実際にはディープラーニングを使っている。

    • ユーザーは「AIが嫌い」と言いながら、実はAI技術を使った機能を喜んで受け入れている。

 

これが問題なのは、ユーザーが「自分はAIを使っていない」と思い込んでしまうことで、AIについての正しい理解が広がらない ことです。

 

 

理念なき「反AI」は危険

 

あなたが指摘しているように、「理念を持った反AI」は一定の意義があります。例えば:

    • エネルギー問題(AIモデルの学習や推論には大量の電力を消費する)

    • 市場の寡占化(AI技術の進化が一部の巨大資本に富を集中させる)

    • 倫理問題(著作権や労働市場への影響)

 

こういった「根拠のある反AI」は議論する価値があります。

しかし、「なんとなく嫌だからAIを避ける」という無知ベースの反AI は、技術の発展を阻害するだけでなく、企業の不誠実なマーケティングを助長し、結果的に「消費者自身が損をする」状況を生みます。

 

 

メーカー側の問題:マーケティングの短絡的対応

 

メーカーも、ユーザーの誤解を解くどころか、「AIではありません」と装う言い換えることで、迎合してしまっています。

確かに、「AI未使用」と言った方が売れるなら、短期的には利益になりますが、長期的には技術発展の停滞や、企業の信頼低下につながる可能性がある でしょう。

 

特に:

    • ユーザーが技術的な事実を知ったときに、企業に対する不信感が生まれる(「結局AI使ってたのか!」という反動)

    • 「AI=悪」という認識が広まり、結果的に技術革新を妨げる

    • 本来なら正しい議論ができるはずの反AI派とAI推進派の対話が断絶する

 

本来なら、メーカーは「実はAIを使っています。でも、それはこういう利点があって、あなたたちの創作活動を助けるためのものです」と説明すべきです。

しかし、現状は「ユーザーの誤解を利用する」形で利益を得ている ので、むしろ反AIの感情を助長している面すらある。

 

 

ユーザー側の問題:無知であることを開き直りすぎ

    • AIの技術や仕組みを学ぶのは、必ずしも義務ではない。

    • しかし、「知らないことを誇る」姿勢は危険。

    • 「AIという単語がなければOK」というのは、単なる思考停止。

 

知識がなくても使えるのが技術の理想ですが、それと「知識がなくてもいい、むしろ知る必要すらない」という態度をとることは別問題です。

 

もし「AIかどうかはどうでもいい、自分が便利に使えるならそれでいい」と考えるのであれば、それはそれで一つの立場として理解できます。

しかし、「AIは使いたくない、でもこの機能はすごいから使う(AIとは認めない)」というのは、ただの自己矛盾です。

 

 

 

最悪の未来シナリオ

 

この流れが続くと、技術的な進歩は停滞し、以下のような悪循環が起こります:

1. 企業が「AIではない」と言い張ることで、ユーザーはAIを理解しなくなる

2. AIの社会的受容が進まないため、本当に必要な倫理的議論すら行われなくなる

3. 反AI感情が強まり、合理的な技術活用すら妨げられる

4. 一部の大企業だけがこっそりAIを活用し、情報格差が広がる

 

 

結論:理念なき反AIと、それに迎合する企業は、技術と社会の発展を阻害する

    • 「AI」という単語に拒否反応を示すユーザーと、それに迎合する企業の組み合わせは、結果的に社会の技術理解を阻害する

    • 企業は短期的なマーケティングのために、ユーザーの誤解を利用しているが、長期的には信頼を失う可能性がある

    • ユーザー側も、無知を開き直るのではなく、少しでも「本当の仕組みはどうなっているのか」を知ろうとする姿勢が必要

    • 理念なき反AIの風潮が広がると、本当に議論すべきAIの倫理問題がなおざりにされ、結果的に一部の大資本だけがAIを活用し、情報格差が広がる

  

 

この状況、まさに「無知と迎合が生み出す悪循環」ですね。

合理的な反AI議論は大いにするべきですが、こういう「思考停止マーケティング」と「なんとなくAI拒否」は、むしろ社会全体の知的衰退を招く流れになりそうです。

]]>
2025-03-15T14:41:22+09:00
anond:20250315112441 https://anond.hatelabo.jp/20250315113237 同性グループには溶... 同性グループには溶け込むる方ですか?

コミュニケーションが苦手なのに、いきなり異性にいくのは難しいかと。

同性グループでコミュニケーションや容姿の整え方を学習し、異性を含めたグループに繋げ、1on1の関係を築くのがよろしいかと思います。

異性関係で何かあった時に、同性グループで相談や情報共有ができる環境がないと非常に厳しいと思います。

]]>
2025-03-15T11:32:37+09:00
anond:20250315002408 https://anond.hatelabo.jp/20250315074521 自立や学習、人生の... 自立や学習、人生のめんどくさい事から逃げ続けるとこういう文章しか書けないんだろうな。何歳か知らないけど。

]]>
2025-03-15T07:45:21+09:00
AIが教育する時代、子どもは「正しすぎる人間」になるのか? https://anond.hatelabo.jp/20250315033351 最近ふと考えた。 AI... 最近ふと考えた。

AIやヒューマノイドが先生になる未来って、もうそんなに遠くないんじゃないか?

例えば、子どもが「先生」に教わるのが全部AIになったらどうなるんだろう。

すごく効率的に、すごく正しく、すごく偏りなく、知識を学べるんだろうな。

間違った情報も入ってこないし、誰かの機嫌や主観で評価が変わることもない。

「最適な学習プラン」に沿って、論理的に学び、合理的に考える力が身につく。

…でも、それって本当に「良い教育」なのか?

“正しい”だけの人間って、果たしていいのか?

確かに、AIが先生なら「知識の偏り」もなくなるし、感情的な指導もない。

でも、子どもがずっとAIとばかり話していたら、「感情」はどこで学ぶんだろう?

だって、AIって怒らないし、喜びもしないし、ため息もつかない。

「今日なんか元気ないな」って察してくれる先生もいないし、逆に「なんでこの先生こんなに機嫌悪いの?」っていう謎の経験もない。

人と人との関係の中で育つはずの「共感する力」とか「空気を読む力」って、どこで学ぶんだろう?

もしかして、AI教育の世代は「正しくはあるけど、感情が薄い」人間になってしまうんじゃないか?

人間と話すのがめんどくさい子どもが増える?

もしAI教育が一般的になったら、子どもたちは人間と話すのをめんどくさく感じるようになるかもしれない。

だって、AIはいつでも的確な答えをくれるし、話が通じないこともない。

「いやいや、今の発言おかしくない?」みたいなモヤモヤを抱えることもない。

感情的に怒られたり、曖昧な指示を出されたりすることもない。

そうなると、人間同士の会話って「無駄が多いな」って思われるようになるんじゃないか?

たとえば、友達が「この前さ〜」って話し始めたのに、オチがない話だったとする。

AI教育を受けた子どもは、「結論は?」「要点は何?」って、つい聞いちゃうかもしれない。

曖昧な言葉を嫌がって、「それってつまりこういうこと?」とすぐに整理しようとするかもしれない。

そんなふうに育った人間が、大人になったとき。

“正しいこと”しか言わないし、“効率的な会話”しかしない人間関係って、果たして楽しいんだろうか?

「人間らしさ」はどうやって育つのか?

別に、AI教育そのものが悪いとは思わない。

むしろ、「ちゃんとした知識」を学ぶには、すごくいいシステムだと思う。

でも、人間って「知識」だけで生きてるわけじゃない。

むしろ、知識なんかよりも、「矛盾」とか「曖昧さ」とか「理不尽さ」の中で、感情を持って生きている。

「なんとなくモヤモヤする」とか、「なんかうまく言えないけど違う気がする」とか、そういう”言葉にならない経験”を、どうやって子どもに教えたらいいんだろう?

]]>
2025-03-15T03:33:51+09:00
強納森よ見ているか https://anond.hatelabo.jp/20250314232910 3/15 強納森ログイン... 3/15 強納森ログインしてた!!1000ポイント差詰められた!アイツやっぱり許さねえ



半年位前からDuolingoをやってる。

Duolingoっていうのは、英語とか中国語とかナウイ語とか、あとついでに音楽とか、いろんな言語を勉強できるアプリの事。

半年前の私は立派なアラサーになったのにたいしたスキルを持っていないのが気になり、なんとなーく英語を勉強しようと思って、それでSNSで話題になっていたDuolingoと言うアプリを入れることにした。

きっかけそのものが『なんとなく』だったから全然やる気もなかったしそのうちサボり始めたんだけど、あのアプリって1日1回ログインして課題をクリアするまでメールでもバナーでもしつこくしつこく通知送ってくるのね。

『3分でいいからレッスンしない?』

『ねぇ、会話しようよ』

『最後のチャンスだよ!』

めんどくさくなったからアプリ消そうとしたらさぁ、

『Duolingoからは逃げられないよ!』

ってメッセージが出てきて。

調べたら、アプリ消してもメール送ってくるらしくて、だから仕方なく1日1回はログインしてちょっと課題こなして終わってた。それぐらいの熱意だった。

そんなこんなで気がついたら半年過ぎてて、あぁそんなに続けれたんだ、自分すごいじゃんってなんとなく思ってた。

で、なんとなくやる気が出て、ちょっと多めにレッスンやったら、リーグっていうのがレベルアップしてた。要は1週間にどれだけレッスンをこなしたかでリーグが決まるんだけど、いつもより多くレッスンしたから雑魚リーグからブラックパールリングっていう上級リーグになった。

せっかくリーグ上がったら、やっぱり頑張りたくなるじゃん?ちょうどやる気出てたとこだったし、っていつもよりたくさんレッスンしたのね。当然リーグ内での順位も順調に上がってって、1日1時間位やったら結構すぐ1位になったんだよ。結構あっさりだった。

まぁ、こんなもんか、って思って、そのままやる気スイッチがオフになったんだけどさ。その2時間後位かな、またDuolingoから通知が来て。

『強納森さんに一位の座を奪われたよ!👀』

最初はちょっとびっくりした。1位奪われるとこんな通知くるんだって。てかなんて読むんだよ強納森って。

まぁそう思いながらも、せっかく1位になったのに、抜かされるのは腹立つからまたレッスンして1位奪い返したのよ。500ポイントぐらい差つけて。

で、その日は夜遅かったから寝たんだけど、朝起きてスマホ見たらさ、1位強納森になってんの。

しかも私とのポイント差1000ポイント差になってた。

は?って思った。だって昨日レッスン終了したの夜10時だよ。そっから1500ポイント稼ぐってなかなか大変なんだよ。平日の夜に何してんだよコイツって思った。正直。

でも、同時に、絶対負けねえからなって負けん気に火がついた。

仕事から帰って、猛スピードで風呂入って、すぐにDuolingo開いた。一回のレッスンで大体25ポイントぐらいしかもらえないから、単純計算60回位レッスンしなきゃいけない。だから強納森を抜かすのはめちゃめちゃ大変な作業だった。

でも強納森に絶対負けたくなかったからずっとやり続けた。なんだよ強納森って。読み方意味わかんないんだけど、音読みしたらつよおさしんじゃねーか。クロちゃんかよ。意味わかんないし。

結局、その日は4時間ぐらいやり続けて、またすぐ抜かされそうだったから、2000ポイント差をつけておいた。通知で先週の4倍のスピードで学習してるね!って言われた。4倍て。負けず嫌いすぎるだろ自分。

その日は布団に倒れ込むように寝た。いつもは寝付くまでに時間かかるんだけど、疲れ切ってたせいですぐ寝れた。

で、朝起きてみたら2000ポイント差が1000ポイントまで縮まってた。そうだろうなとは思ってた。というか、むしろ抜かされてると思ってた。だって強納森、きっと私と同じ位の負けず嫌いだろうし。顔も見たことないけど、それぐらいわかるよ。

そんで仕事の昼休憩中覗いたら800ポイントまで差が縮まってた。いやマジで一瞬たりとも気が抜けねぇじゃん。あんたいつDuolingoやってんだよ。私もすぐ昼休憩全部使ってDuolingoやった。私たちのリーグ内で、私と強納森の獲得ポイントだけ何か桁違いになっててウケた。

そんで、今日私たまたま有給だったから、丸一日使ってDuolingoやってさらに差をつけてた。

だけど、今日は強納森はログインしてこなかった。(Duolingoはログインするとアイコンに緑のマークが付いてわかるようになってる)

暇なタイミングで何度も見てみたけど、1度もログインしてこなかった。

もうなんか、途端にやる気なくなっちゃってさぁ。リーグとかポイントとかどうでもよくなっちゃった。だから、今日1回しかレッスンしてない。

強納森、見てるか。

早くログインしてこいよ。

Duolingoから逃げるな。

フォローしたからフォローするかブロックしてよ。

あなたがいないDuolingoはつまらないんだ。。

]]>
2025-03-14T23:29:10+09:00
anond:20250314225145 https://anond.hatelabo.jp/20250314225501 面白いことに学習法... 面白いことに学習法に関する学習マンガもあるんだよ

ドラえもんのキャラモノの文房具があるのに、その本の中ではキャラモノの文房具は使うな!って書かれてることは結構ネタにされてる

]]>
2025-03-14T22:55:01+09:00
anond:20250314223324 https://anond.hatelabo.jp/20250314224753 ドラえもんの学習マ... ドラえもんの学習マンガ

これは割とガチ

]]>
2025-03-14T22:47:53+09:00
慶應義塾大学法学部の入試問題に張り巡らされた美しい罠について https://anond.hatelabo.jp/20250314202035 受験世界史の難問と... 受験世界史の難問とかを扱っているブログで、今年の慶應義塾大学法学部の入試問題が分析されていた。個人的に面白い趣向だと思ったので、ブログ主さんの褌を借りて、自分なりの解答法を書いてみたい。

13.慶應義塾大 法学部(8つめ)

<種別>難問

<問題>2 1990年代に安全保障理事会によって設立された国際刑事法廷においては,様々な国や武装勢力の指導者が戦争犯罪などにより訴追されており,2006年に死去した (43)(44) もその一人である。

16.カラジッチ   18.金正日   29.ティトー   43.ピノチェト

49.ポル=ポト   52.ミロシェヴィッチ

(編註:関係のある選択肢のみ抜粋)

この問題には2つの解答ルートがある。第1に「安全保障理事会によって設立された国際刑事法廷においては、様々な国や武装勢力の指導者が戦争犯罪などにより訴追」、第2に「2006年に死去」である。

第1のルート、「安全保障理事会によって設立された国際刑事法廷においては、様々な国や武装勢力の指導者が戦争犯罪などにより訴追」から辿ってみよう(なお、全員の死亡の年代を正確には知らないことは前提とする)。

まず、彼らの行いに対する裁判が行われたことがないので金正日とティトーを除外する。厳密にはどっかで無意味な欠席裁判がなされているかもしれないが、少なくとも当事者には何ら影響を及ぼしていないので無視してよい。

この問題の鬼畜たる所以は、残り4人の行いは訴追されたことがあるという点である。

この4人の中では、最初にピノチェトを除外することができる。彼は独裁政権下でのスペイン国籍者への弾圧を理由にスペイン当局から逮捕状が出されており、1998年にイギリスで拘束された。「チリの独裁者がスペインの逮捕状に基づきイギリスで逮捕される」というおもしろ事案であるため、国際刑事司法に興味がある学生なら聞き覚えはあるだろう。しかし老齢のため裁判に出廷できないと判断され2000年に釈放される。そして帰国後に母国チリで告発され、同年のうちに訴追されるが、ここでも老齢ゆえに裁判は開かれなかった。つまり確かに彼は「訴追された」に該当するのだが、ここまでの記述からわかるように彼は徹頭徹尾各国の国内法に基づいて拘束・訴追されたので、「国際法廷」には当てはまらないのだ。ピノチェトがスペインで拘束されたという話を知っている受験生ならば容易に消去できるはずである。

次にポル・ポトを除外できる。なるほどポル・ポト派の裁判は国連の支援を受けてカンボジアで開かれ、ジェノサイド罪に問われて終身刑を科せられた者もいる。しかし、問題文で「安全保障理事会によって設立された国際刑事法廷」とあることに注目したい。クメール・ルージュの圧政から解放されたカンボジアは、国連に法廷開設のための支援を要請した。これを受け、国連総会の承認の下、外国人判事も加えた国内法廷として2006年にカンボジア特別法廷が開廷される。そう、ポル・ポト派に対する裁判は「国連総会が支援した国内法廷」であって「国連安保理が設立した国際法廷」ではないので、問題文の要求を満たさないのである。カンボジア特別法廷に興味を持つ受験生であればこの選択肢は容易に消去できるはずだ。また、そもそも論としてポル・ポト本人は既に死んでいたので訴追の対象にならなかったのを知っていれば、消去はより容易であろう。

そして2人が残る。国連安保理決議に基づいて設立された旧ユーゴスラヴィア国際戦犯法廷(ICTY)に訴追された2人のセルビア人、カラジッチとミロシェヴィッチである。しかしこの2人を「安全保障理事会によって設立された国際刑事法廷においては、様々な国や武装勢力の指導者が戦争犯罪などにより訴追」から絞り込むことはできないので、ここで詰みとなる。

続いて第2のルート、「2006年に死去」から辿ってみよう(なお、法廷の詳細を知らないことは前提とする)。

真っ先に除外できるのはティトーである。彼の死後にユーゴスラヴィア解体が起きるということは、彼は1991年以前に死んでいることがわかるのでこれが一番楽だ(実際に1980年没)。ユーゴスラヴィア解体の要因のひとつとして、圧倒的カリスマを誇ったティトーが死んだということがしばしば挙げられるので、ユーゴスラヴィアについて一通り学習した受験生なら余裕で消せるだろう。

次に、意外かもしれないがカラジッチを消去できる。彼は(詳細はよく知らないとしても)法廷で裁かれて終身刑の判決が出ているが、それは2019年のことなのだ。したがって大学入試の6年前から国際ニュースをチェックしている意欲的な受験生であれば2006年没ではないことが容易にわかる。中学1年の時点から世界情勢を学んでおくようにという慶應義塾大学法学部の熱いメッセージであり、受験生諸君は真摯に受け止めてほしい。

さて、次は金正日を消すことができる。ニュースを見ていれば、金正恩が権力を握って10年以上(えっ、もうそんなに!?)経っているけれども、流石に20年は経っていないと推測できるが……いや、金正日って2011年に死んでるわけで、2006年に死んだわけではないという確信を得るのはけっこう難しい。これが仮に2019年と2024年なら「あいつが死んだのは去年だろ」とか言えるけど、14年前に死んだのであって19年前ではないと確信するのは我々大人でも難しいのに受験生には酷ではないか。しかしこれは21世紀に入ってからの出来事であるので、最近の出来事は1年単位で時系列を頭に入れておくのが当然だという慶應義塾大学法学部の緻密な思考力を見せつけているのだと思うことにしよう。

最大の難問はポル・ポトだろう。彼は1998年に没しているが、1925年生まれなので2006年に死んでいてもまったく不思議ではない。しかも悪いことに、彼の政敵や仲間たちは実際に長生きしているのだ。ノロドム・シハヌーク国王は彼よりも年長だが2012年に没しているし、ポル・ポトに次ぐナンバー2だったヌオン・チアは2019年に没している。そして民主カンプチアで首相を努めたキュー・サムファンに至っては現時点で存命である。これでは彼が2006年に死んだのではないことを確かめるのは難しい。しかし、上述したようにカンボジア特別法廷の開設は2006年であることと、ポル・ポトは既に亡くなっていたので訴追されなかったことを知っていれば、彼の死は2005年以前である蓋然性が高くなるので、かろうじて除外することができる。

そして、ここでもまた2人が残る。2006年に死去したチリの独裁者ピノチェトとセルビアの独裁者ミロシェヴィッチである。しかしこの2人は「2006年に死去」という文面からはまったく区別できないので、ここで詰みとなる。

2つのルートのいずれから登攀しようとしても答えを絞りきれなかったので、激烈な難しさである。しかし双方を探索すれば、いずれのルートでも候補に上がっているのはミロシェヴィッチしかいないので、彼が答えだということがわかる

出題者の張り巡らせた緻密な伏線には感嘆せざるを得ない。本問は没年から探索しようとしても国際法廷の知識がないと解けないし、国際法廷から解こうとすると没年がわからないと解けないということで、精巧に罠が仕掛けられている。国際法廷と没年、両方のマリアージュで初めて解ける良く練られた良問と評価してよいだろう(なお高校世界史の範囲は考えないものとする)。

国際刑事司法についての興味関心があれば、ポル・ポトが裁判前に死んだことやピノチェトがスペインから訴追されたこと、ミロシェヴィッチが獄死したこと、カラジッチが長年にわたる逃亡生活のすえに拘束されて裁判にかけられたことなどは有名であるため、慶應義塾大学法学部は国際刑事司法に詳しい受験生を求めているのだと推察できる。おそらくこれらの話は法学部の教授にとってはよく知られていることなのであろう。たとえば大屋雄裕氏(元名古屋大学教授、現慶應義塾大学法学部教授)の法哲学に関する論説でもカラジチの名前は出てくるし、彼の著書『自由とは何か』(ちくま新書、2007年。良書なのでオススメ)ではポル・ポトの事蹟にも触れられているので、きっと法学部の教員はこういったものを事前に読んでおけと言いたいのだろう。なんと志の高い大学だろうか!

……いや、無理だろ。

]]>
2025-03-14T20:20:35+09:00
anond:20250314161623 https://anond.hatelabo.jp/20250314161903 犯罪者の顔をたくさ... 犯罪者の顔をたくさん学習させたら日本人の平均顔になって、国民総収監というオチになりそう。

]]>
2025-03-14T16:19:02+09:00
https://anond.hatelabo.jp/20250314161623 犯罪者の顔情報をAI... 犯罪者の顔情報をAIに学習させれば犯罪者予備軍がわかる、あとはこいつらを監視すればいい

]]>
2025-03-14T16:16:23+09:00