CryptoPepper

vip
期間 3.3 年
ピーク時のランク 2
現在、コンテンツはありません
GoogleはTurboQuantという論文を発表し、24時間以内にコミュニティがllama.cppに移植しました。
TurboQuantは何をしたのか?大規模モデルのKVキャッシュを3-bitに圧縮し、メモリ使用量を6倍削減、推論速度はH100上で8倍向上させました。
重要なのは——再トレーニングや微調整は不要で、精度も落ちないことです。これがチップ株の暴落の一因です。
Samsung、SK Hynixはソウルで6%以上下落し、Micronは米国株で6.9%下落しました。
市場が恐れているのは——もし各モデルが6倍少ないメモリで動作できるなら、HBMの需要はどうなるのか?
しかし、私は市場の反応は過剰だと思います。理由は非常にシンプルです。節約されたメモリは無駄になりません。より小さなKVキャッシュは、同じGPUでより大きなコンテキストやより多くの並列リクエストを処理できることを意味します。需要は減らず、再配分されるだけです。
これは技術史上何度も繰り返されてきたことです——CPUが高速化すれば、ソフトウェアはすべての性能余裕を使い切る。帯域幅が拡大すれば、動画ストリームがすべての帯域を消費する。メモリが節約されれば、モデルはより大きく、より欲張りになる。
llama.cppのディスカッション#20969には、動作可能なCPU実装(純C、依存なし)とCUDAカーネルがあります
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
メタはまた700人を解雇した。
これは2026年の第2弾だ。1月にはReality Labsの人員を10%削減し、今回は販売、採用、グローバル運営を対象とした。
ザッカーバーグの言葉:「以前は大きなチームが必要なプロジェクトだったが、今は優秀な人一人でできる。」
同時に、Metaの今年のキャップエックス予算は1150億から1350億ドルで、すべてデータセンターに投資している。
人員削減と資金投入によるAIインフラの構築だ。
これが2026年の大手企業の標準的な運営方法だ。
人が不要になったわけではなく、必要な人材が変わったのだ。
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
私個人はすでにシステマティックに10年トレーニングを積んできたので、これは基本的な常識だと考えています。多くの人は知らないかもしれません。
以下の投稿が暴露されたので、皆さんに見せたいと思います。
1)筋力トレーニング/筋肉増強の基本原理は「現在の筋肉の限界に逼近し——身体に軽微な損傷を与え——修復され——筋肉が成長——これを繰り返す」ことです。
素朴に理解すれば、筋肉を追い詰めると成長します。
2)この過程では、まず身体は消耗し、その後補充され、最終的に蓄積されて成長します。
だから、まずは耐えられるだけ耐え、その後しっかり補わなければなりません。
3)ここでの補充は食事と睡眠によるものです。
睡眠は最低保証、食事は増量に役立ちます。
食べないと成長しませんが、睡眠をとらないと死にます。
4)すべてのトレーニング、包括的な筋力トレーニング、高強度インターバル有酸素運動(HIIT)、中高強度有酸素運動(ランニング、階段登り、ジャンプ)など、「息が切れる」運動はすべて心臓を鍛えることになります。
5)心臓を鍛える原理は筋肉を鍛えるのと同じです(本質的に心臓も大きな筋肉の塊だからです)。つまり、疲れさせて——食事と睡眠で補充し——強くなるのです。
6)筋肉が強くなると、多くのメリットがあります。例えば耐久力が向上し、力が強くなり、一回のポンプ血流が十分になり、より多くの距離を歩けるよう
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
ホワイトハウスの公式ツイッターの一連の謎めいた行動により、そのアカウントがハッキングされたのではないかと感じています。
誰か45470という番号に電話をかけてみた人はいますか?
原文表示
post-image
  • 報酬
  • コメント
  • リポスト
  • 共有
"AXTIは米国株の新たな王者"?
この手の投稿を小紅書で毎日十回は見かける。ティッカーを変えてまた煽るだけ。
いつも光を信じろと叫んでいる。くそ、そんなに光があるのか。
ほとんどの人は一言でこの会社のやっていることを説明できない。
AXTIは化合物半導体基板を作っている。聞いたこともないだろう?
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
あなたの小龍虾で一番役に立つのは、258元の全国飛行割引チケットを買って、その後定期的にこの0元交換をポーリングすることです。このプッシュ通知はあなたのどんな日報のプッシュよりもずっと良いです。
原文表示
post-image
  • 報酬
  • コメント
  • リポスト
  • 共有
OpenAIはSoraを終了しました
去年9月に大々的にリリースされ、App Storeで1位に躍り出ました。 しかし、わずか6か月後に閉鎖されました。
公式の説明は「計算能力を世界のシミュレーション研究とロボットに集中させるため」とのことです。わかりやすく言えば、資金を使いすぎてユーザーを引き留められなかったということです。
Disneyと結んだ大きな契約も?3か月で解約されました。
AI動画を作っている皆さん、注意してください:OpenAIさえ維持できない事業ラインを、あなたの動画AIスタートアップはどれだけ続くと思いますか?
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
ありがとうございます、signの招待をいただきました
打ち合わせを始めることができます
原文表示
post-image
post-image
  • 報酬
  • コメント
  • リポスト
  • 共有
愛你サイン、会う準備ができました
原文表示
post-image
post-image
  • 報酬
  • コメント
  • リポスト
  • 共有
OnlyFansの創設者は43歳で亡くなった。癌だった。
Leonid Radvinsky、ほとんどの人はこの名前を知らないだろう。
しかし、彼は過去5年間で最も稼ぐことに長けたインターネット起業家の一人かもしれない。2018年に5000万ドル未満でOnlyFansの75%の株式を買収し、2024年までに配当だけで年間7億1000万ドルを稼いでいる。
Forbesの推定によると、彼が亡くなった時点での資産は47億ドルから78億ドルの間だった。彼はほとんどインタビューを受けず、公開のソーシャルメディアも持たず、従業員さえ彼を見かけることはほとんどなかった。真の裏方の人物だ。
しかし、今日私が話したいのは彼の人生の物語ではない。
私はOnlyFansのビジネスモデルについて語りたい。
このプラットフォームは本質的に一つのことをやっている:クリエイターとファンの間に立ち、20%を徴収し、クリエイターはコンテンツ制作、ファンの維持、トラフィックの獲得を担当し、プラットフォームは支払いのチャネルとインフラを提供する。
そして、すべての取引の5分の1を取り去る。2023年、プラットフォームの総取引額は65億ドルを超え、会社の利益は10億ドルを超えた。
Radvinskyは個人で4億7200万ドルの配当を受け取った。
この構造は非常にクリーンで嫉妬させるほどだ
原文表示
post-image
  • 報酬
  • コメント
  • リポスト
  • 共有
あなた方が作る法律AI大模型は法奸だ
あなた方が作る監督AI大模型は導奸だ
あなた方が作る投資研究AI大模型は投奸だ
あなた方が作る不動産AI大模型は地奸だ
あなた方が作る暗号化AI大模型は加奸だ
あなた方が作る米国株AI大模型は美奸だ
あなた方が作る健康診断AI大模型は体奸だ
あなた方が作る詐欺AI大模型は炸奸だ
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
昨年9月、OpenAIが論文を発表しました
論文の著者はOpenAIのAdam Tauman Kalai、Edwin Zhang、Ofir Nachum、そしてGeorgia TechのSantosh Vempalaです
彼らは数学的なフレームワークを構築し、その核心的な発見はこの不等式です:
生成エラー率 ≥ 2 × 判断エラー率
AIが「1+1は何か」という判断において1%の確率で誤りを犯すと仮定します。その場合、回答を生成する際に誤りが出る確率は少なくとも2%です
なぜ拡大するのか?1つの誤った判断が複数の誤った生成を引き起こすからです。例えばAIが「1+1=3」と判断した場合、同時に2つの誤りを犯しています:1+1=3が正しいと述べ、1+1=2が間違っていると述べる。1つの判断ミスは少なくとも2つの生成ミスになるのです
「わかりません」と答えれば0点です。適当に推測して、たとえ10%の確率で正解したとしても、期待得点は0.1点です。理性的な選択?推測です。 だからAIは「嘘をつくことを学んだ」のではありません。AIは訓練システムにより推測を強制されているのです
私はAIの自動化を半年以上続けてきました。データ収集から執筆、画像の配置まで、私のコンテンツシステムはすべてAIで運用されています
この論文は私の認識を何か変えましたか? 正直に言
原文表示
post-image
  • 報酬
  • コメント
  • リポスト
  • 共有
<>任意のAIと連携するための一つのコマンド(GitHubで🌟をお願いします)
<> WeChatを任意のAIに接続するための一つのコマンド
🤖 複数のAIバックエンド Claude Code CLI · Gemini CLI · Codex CLI · OpenAI API · Anthropic API
🖼️ 画像理解 画像を送信すると、AIが直接内容を分析(ビジョンモデル)
🎙️ 音声認識 組み込みのASR + ローカルのWhisperによるダブルバックアップ
🎬 動画分析 ffmpegによるフレーム抽出 + Whisperによる音声書き起こしで、動画内容を包括的に理解
📄 ファイル解析 PDF · Word · Excel · PPT · EPUB · コードファイルも完全対応
⚡ ストリーミング出力 AIの応答をリアルタイムのタイプライター効果でプッシュ
🔒 ハードコーディング不要 すべてのキーはセットアップウィザードによる対話式設定で、ローカルに保存
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
音声・動画解析を実現しました。GitHubはすでに準備完了で、私はローカルでテスト中です。すぐに公開します。
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
ccの画像認識機能を解決しました
次のステップは音声/ファイル/コマンドライン制御/動画の解決です
すぐに、すぐに
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
すぐにオープンソース化
おそらく全ネットで初めてCC+を一緒に連携させた
速度に小さなベル🔔を鳴らして、1つのコマンドでローカルPC+cursor/claude code/anti gravitityを直接接続できる
楽ちん!
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
このいわゆる「AI自動イテレーションで最適戦略を見つける」GitHubのいくつかの問題点を簡単に説明します。
基本を理解している人はほぼ見なくていいです。これはただのごまかしです。
1. Sharpe 20.6、最大ドローダウン 0.3% - ほぼ確実に過剰適合であり、現実ではあり得ません。ルネッサンスの大奨章ファンドですら、Sharpe比20を自称する勇気はありません。
2. 103回の実験すべてが同じデータで評価されており、資金費用やマーカー/テイカーの手数料は考慮されていません。
3. git reset/keepの仕組みは単に「履歴」をトレーニングセットとして使っているだけで、真のアウト・オブ・サンプル検証ではありません。
結論:全く役に立たず、つまらない。
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
I had a drink with the local human resources and social security bureau director and we talked about the pandemic.
In a town coordinating 300,000 people, do you know how many supply vehicles are needed during an epidemic?
It's not just dozens of 2-ton trucks, but hundreds of them—one truck every single minute. Now imagine that scaled up to 3 million people and how many supply vehicles would be needed.
I used to think it was all amateurish, but now I really don't dare think that way anymore.
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
アリババの利益が67%急落
原因?AIへの投資が過熱しているため。クラウド事業の成長速度が鈍化
詳しく見ていくと:
第一層:アリババはAIに全力投資している。これは投資であり、損失を出している状態だ
第二層:クラウド事業の鈍化は、中国企業のクラウド導入の伸びがピークに達したことを示している
第三層:これは米国株のAI銘柄にとってむしろ好材料だ——競合他社が資金を投入して追い上げていることは、NVIDIAの競争優位性がより深まったことを意味する
アリババの株価が上がるか下がるかは気にしない。
私が気にしているのは:中国のAI企業が一斉に資金を燃やし続ける→チップの需要が急増→NVIDIAが恩恵を受ける、サプライチェーンを理解している人だけが利益を得る。株価だけに目を向けている人は搾取される。
原文表示
  • 報酬
  • コメント
  • リポスト
  • 共有
  • ピン