PDCAサイクル以外にも「何かを最適化する仕組み」は存在する。たとえば、進化論。PDCAサイクルは人間が勝手に考えて勝手に名前を付けただけの無根拠な〝手順〟だが、自然選択説はこの宇宙の〝法則〟だ。交雑と変異、選抜を繰り返すことで、… twitter.com/i/web/status/1…

Everyone should benefit from artificial intelligence, and not just people in rich countries. This is the priority for my own work.
【重宝確定】日本初のAIツールのデータベースサイト『AI Database』が便利すぎる🔥
・世界中のAIツールが検索できる
・登録なし・無料
・目的別での検索も可能
・概要や料金などの情報が1ページにまとまってる… twitter.com/i/web/status/1…
【速報】NVIDIAがジェネレーティブAIのクラウドサービス『NVIDIA AI Foundations』の提供を発表!
以下がサービスで提供される
・NEMO:大規模言語モデル
・PICASSO:画像・3Dモデル・動画生成AI… twitter.com/i/web/status/1…
ChatGPT が潜在表現内にループとループ変数の概念を持っているか確かめるため、「「はい」とN回言ってください。」という質問を N を変化させながら繰り返してみた。 ChatGPT は無料版を使用した。結果 N=32 までは正確… twitter.com/i/web/status/1…

@kawachorigami たぶんコジュケイ。

Bardのベースになっているのは「LaMDA」というGoogle謹製のAI。このニュースで有名。
「AIに意識が芽生えた」と主張したGoogleのエンジニアが解雇される - GIGAZINE gigazine.net/news/20220725-…

GoogleのAI「Bard」が満を持して公開!なお、おま国
bard.google.com
【速報】ついにきた!!!
Googleの「Bard」がアメリカとイギリス限定でアクセス開始!!!!
bard.google.com
blog.google/technology/ai/…
BardはLaMDAをベースにし… twitter.com/i/web/status/1…

久々に翻訳を担当しました。ストーリー翻訳はたしか初めてなので、お見苦しい点があれば私の到らぬところです。よくできているところがあれば監修のおかげです。ストーリーも第5話ということでかなり盛り上がってきております。ぜひ『機械兵団の進… twitter.com/i/web/status/1…

APEXのマップデザインってやっぱり神だよな。元祖キンキャニはわちゃわちゃしてカジュアルが楽しいし、オリンパスは移動とファイトのメリハリがあってバランスがいい。ワールドエッジは実力差がはっきりと出る競技的なマップだし、ストームポイントは景色が綺麗。#APEX

DELETE STORM POINT #APEX

Adobeから画像生成AI「Firefly」登場。権利関係もクリア - PC Watch pc.watch.impress.co.jp/docs/news/1487… 「権利関係もクリア」←商用利用を考えているプロが一番待ち望んでいた文言

捨てられたアンドロイドの女の子を幸せにする話🦾
🔌💡🛠️その19🛠️💡🔌
#ガラテアプリクエル #midjourney
#AIart #Nijijourney #ツイッタSF #マンガが読めるハッシュタグ… twitter.com/i/web/status/1…

「なぜを5回繰り返せば〝必ず〟本質的な原因にたどり着ける」と言ったら、端的に嘘じゃん。経験則から言って大体5回ぐらい繰り返せばたどり着ける可能性が高くなるよね……って話だし、「なぜ」の問い方を相当に練習しないと、的外れで属人的な結論になりがちじゃん。

GPT-5やGPT-6の現れた世界では、そういう制約がなくなる。「思いついたアイディアを思いついただけシミュレーションして、一番上手く行きそうなやつを生き残らせる」のような、計算力にモノを言わせた〝新しい仕事の進め方〟が生まれうるのではないか? #ツイッタSF

PDCAサイクルとかなぜなぜ分析とか、今の世の中で「当たり前」だと考えられている仕事の進め方って、「創造的な発想をできるコンピューターがヒトの脳しかない」そして「脳の計算の速さと人員の数には限界がある」という制約のもとで最適化されたものなのではないか?
何が言いたいかというと、

【誤】
ChatGPTのような大規模言語モデルでは、真に新しいものは生み出せない。
【正】
プロンプト次第で大規模言語モデルは新しいものを生み出せるが、そのプロンプトを発見するのが難しい。
……だと思う。

「アイデアとは、既存の要素の新しい組み合わせ以外の何ものでもない」というジェームズ・W・ヤングの格言がある。ヤングが正しいとすると、「大規模言語モデルは過去に学習したデータに基づいて出力しているだけだから新しいものは生み出せない」という主張は、成り立たないことになる。