Twitter mooz stillpedant | mooz (@stillpedant) のツイート

User reasonably small

@akira_dev 本当ですね。原文見直したら「Yahoo社の電気代実績値」らしいので specific case かも。確かに、エネルギーの自給率が結構影響してそう。

User reasonably small

安宅さんの「シン・ニホン」知らない数値が満載で驚きが多い。日本は産業用の電気代が米国より5倍以上も高い。ゆえにデータの処理能力にも差が出る。AWS東京リージョンの価格が高い理由のひとつなんだろうか。

User reasonably small

pycharm も vscode も Jupyter lab も悪くないが、やっぱり十年に渡ってカスタマイズしてきた Emacs と zsh とを tmux で行き来してるとき、考えるよりも先に指が動いて、馴染みのシューズで全力疾走するランナーの気分。

User reasonably small

Linux 入れたマシンでガチャガチャとコード書いてるとき、生きてるって感じする

User reasonably small

この時期の Twitter は人事異動通知サービスみたいなもんだ

User reasonably small

シニアな方が定年で辞めてゆかれ、古き良き「企業研究所」の香りがする人はすっかり見当たらなくなってしまった感じがして、少し寂しい。

User reasonably small

コロナでこのところずっとリモートワークを続けていて、不自由はないがちょっと息苦しくもある日々を過ごしているのだけれど、なんだかこのイベントをきっかけにして、これまである程度に連続的に推移してきた価値観が不連続に変わってしまうような、そんな予感がした。

User reasonably small

Gitlab で新規に鍵を登録しても permission denied になる問題 curecode.jp/tech/gitlab-au… だなぁ。git ユーザの authorized_keys が DB と同期されていない。手動で叩いたら問題は解決したが DB 更新時にフックしてくれないと困る。

User reasonably small

gitlab を 12 に上げたら新規にウェブ画面から登録した公開鍵について permission denied エラーが出るようになってしまって、無限に時間が奪われてゆく。もっと違うことに使うべき時間が…。

User reasonably small

“DX需要へ“群雄割拠”、有力セルフサービスBIベンダーの最新事情 - ZDNet Japan” htn.to/3KEgCBxGTJ

User reasonably small

@imunolion やはり…。くれぐれもお気をつけください。

User reasonably small

@imunolion ありがとうございます! 西海でまたぜひご飯などご一緒させてください

User reasonably small

週末に予定していたデカ目のライフイベントを再考せざるを得ない状況となり色々と検討重ねてリスケを決断し疲れたので昼からビールを飲んでいる

このワシントンポストの感染シミュレーションの表現は秀逸。数日で3つほどグラフをリツイートしたが、この3つを見るだけで状況がほぼ理解できる。グラフィックデザイナーとしてはこういう仕事をしないと。反省。 washingtonpost.com/graphics/2020/…

User reasonably small

Why outbreaks like coronavirus spread exponentially, and how to “flatten the curve” - Washington Post washingtonpost.com/graphics/2020/…

ブログ書きました: GitHubがnpmの買収を発表、JavaScriptのパッケージ管理サービス。将来的にはGitHubとnpmを統合へ publickey1.jp/blog/20/github…

User reasonably small

面白い / “ホットリンクのデータサイエンティスト・榊が語る、SNSマーケティングの可能性|公式ブログ|ホットリンク” htn.to/n3ZdFmjxx9

世界最大手のタクシー配車アルゴリズムのまとめ

DiDi: bit.ly/2IPKkwi
Lyft: lft.to/2TU6CTX
Uber: ubr.to/2vlnKZ5

いずれも「配車を意図的に遅くし、車と客が溜って市場が厚くなるのを待つ」設計で配車効率が超上がったらしい。Japan TaxiやS.Rideはどうなんでしょう?

自分なりのまとめ
⁃ ELMo、GPTの事前学習タスクは言語モデル
⁃ BERTの事前学習タスクはmasked言語モデルなので、これを言語モデルと呼ぶのはちょっと気持ち悪い
⁃ BERT全体を言語モデルというのは相当気持ち悪い。転移学習か事前学習モデルと言うべき。
⁃ GPT2は(GPTと違って)言語モデルそのもの

User reasonably small

“NICT BERT 日本語 Pre-trained モデル” htn.to/36wMRxN2y4

User reasonably small

“自然言語処理ライブラリ開発のHugging Faceが約16億円調達 | TechCrunch Japan” htn.to/tuXeKjJcp7

User reasonably small

良い / “HyperLogLog sketchは面白い - builderscon tokyo 2019” htn.to/2ruGYSk7vt

User reasonably small

ナンバガを聞けば中学に戻り、Cymbalsを聞けば高校に戻り、相対性理論を聞けば大学に戻る。感じがする。

User reasonably small

@adncpd 確かに、同じ情報でも見せ方によって気分がだいぶ変わりそう。金の匂いが。

User reasonably small

ポリティクスに巻き込まれてうんざりして2年ぐらい自分の中で燃えてた炎が消えかかっていて悲しい。

CodeBERT: A Pre-Trained Model for Programming and Natural Languages (Microsoft) arxiv.org/abs/2002.08155 プログラムと自然言語のデータ(非パラレルも可)からマルチモーダルに事前学習.MLMとRTD(ELECTRAの置換トークン識別)の同時学習.自然言語によるコード検索などで優れた性能を実現. pic.twitter.com/ykv2VqAA9Z

リモートなのでテレカンが命な今日この頃、同僚氏に「テレカンの雑音が消える!!最高だから入れて!!!!相手の雑音がキツくても全く大丈夫になった!!!!!」ってその会社の営業かのように激推しされてインストールしたKrisp、まじで雑音消えた…。恐ろしい子…。
jp.vcube.com/service/krisp