You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert
創業以来右肩上がりの増加を維持してきたFacebookのユーザー数が、初めて減少に転じたことが分かりました。これを受けてFacebookの親会社・Metaの株価は一時20%超の下落を記録しました。 Meta - Meta Reports Fourth Quarter and Full Year 2021 Results https://investor.fb.com/investor-news/press-release-details/2022/Meta-Reports-Fourth-Quarter-and-Full-Year-2021-Results/default.aspx Facebook-parent Meta (FB) Q4 2021 earnings https://www.cnbc.com/2022/02/02/facebook-parent-meta-fb-q4-2021
Apple税回避策として、同日からユーザーを「Facebook Pay」での支払いWebサイトに誘導できるようにする。ユーザーがこのWebサイト経由で購読料を支払えば、Apple税を回避し、購読料の100%がクリエイターのものになる。方法は、クリエイタースタジオで生成するプロモーションリンクをユーザーにメールやテキストメッセージで送る(アプリにボタンを表示するわけではない)。 同社はまた、2021年末までクリエイターが新規加入者を獲得するたびに5ドル~20ドルのボーナスを支払うことも発表した。同社は7月、クリエイターに10億ドル投資すると発表しており、このボーナスはその一環だ。 Metaは昨年、コロナ禍でリアルなイベントを開催できなくなったFacebookページオーナーのために、オンラインイベントを「ライブ動画」で有料で開催する機能を公式アプリに追加し、そのころからApple税を批判し続け
Now that our platforms are up and running as usual after yesterday’s outage, I thought it would be worth sharing a little more detail on what happened and why — and most importantly, how we’re learning from it. This outage was triggered by the system that manages our global backbone network capacity. The backbone is the network Facebook has built to connect all our computing facilities together, w
Facebookが10月5日の全面ダウンの詳細を報告。バックボーンの停止がBGP停止となりインターネットから離脱、外部からのアクセスを失いデータセンターに乗り込んで対応 FacebookおよびInstagramなどが日本時間の10月5日午前0時40分頃から午前8時頃まで全面的にダウンした件について、Facebookはその経過や原因についての詳細を「More details about the October 4 outage」として同社のブログで公開しました。 下記は同社CTO Mike Schroepfer氏のツイート。 Yesterday’s outage across our products was a bad one, so we’re sharing some more detail here on exactly what happened, how it happened,
なぜ6時間以上も続いたの? Facebook、Instagram全面ダウンの原因2021.10.05 19:0029,722 satomi 泣きっ面に蜂。 先週の日曜、米ニュースショー番組「60ミニッツ」で放映された、Facebookの誤情報チーム元プロダクトマネジャーによる内部告発。そのショッキングな内容でFacebook株がダウンするなか、こんどはFacebookのサイトまでダウン。傘下サービスもろとも全世界のネットから6時間以上に渡って「消える」異常事態となりました。 大規模な障害の原因はなんだったのか? 簡単に振り返ってみましょう。 それは突然はじまったシステム障害が出はじめたのは米西海岸時間の月曜8:40AMごろのことでした。 対象は主にFacebookとInstagram、WhatsApp、Messenger、Oculus、Workplaceですが、Facebookでログインし
フェイスブック、マイクロ秒単位の時刻を伝えるPCI Expressカードをオープンソース化 Data Center Dynamics 2021.08.121,369 views Facebookのエンジニアは、非常に正確なタイム・アプライアンスとして機能するカスタムPCI Express(PCIe)カードを開発し、オープンソースとして公開しました。これにより、分散システムはマイクロ秒レベルの同期の恩恵を受けることができるようになります。 Facebookは、2020年3月以降、データセンターのサーバーやコンシューマー製品を、インターネット上のネットワークタイムプロトコル(NTP)を利用した計時サービスに切り替えており、これによりFacebookのインフラにおける計時の精度は、10ミリ秒から100マイクロ秒へと100倍向上しました。タイム・アプライアンスは、PCI Expressカードに組み
Facebook AI Researchは、会話の内容を知識として蓄えつつ、同時にネット検索をして知識をアップデートする機能を備えたAIチャットボット「BlenderBot 2.0」をオープンソースで公開したことを発表しました。 あたかも人間の様に会話に応じてくれるAIチャットボットは、今回発表された「BlenderBot 2.0」の前身となる「BlenderBot 1.0」も含めてこれまでにも存在しました。 これらはAIによって人間からの入力を理解し、それに対して過去にトレーニングした内容を基に情報を取り出し、適切な文章を生成して返答する能力を備えています。 しかしこれまでのAIチャットボットは、ある時点で集められた情報を基にトレーニングが行われ、それを基にAIチャットボットとして活動を行います。そのため、基本的には活動開始後に発生した事象に関する知識を持つことはありませんでした。 例え
Facebook’s DHCP infrastructure and traffic imbalance Last year we talked about our production DHCP infrastructure and how we use ISC KEA in production to deploy a stateless and dynamic DHCP server across the fleet. At the time, we used a hash-based ECMP selection algorithm for our BGP anycast IP distribution. A question arose about whether the DHCP traffic was well-balanced across our KEA servers.
少し前に,Facebookのロードバランサが話題になっていた. blog.stanaka.org このエントリを読んで,各種Webサービス事業者がどういったロードバランスアーキテクチャを採用しているのか気になったので調べてみた. ざっくり検索した限りだと,Microsoft, CloudFlareの事例が見つかったので,Facebookの例も併せてまとめてみた. アーキテクチャ部分に注目してまとめたので,マネジメント方法や実装方法,ロードバランス以外の機能や最適化手法といった部分の詳細には触れないことにする. 事例1: Microsoft Azure 'Ananta' MicrosoftのAzureで採用されている(いた?)ロードバランサのアーキテクチャは,下記の論文が詳しい. Parveen Patel et al., Ananta: cloud scale load balancing
最近、SREが話題ですね。 tech.mercari.com www.wantedly.com ということでSREについて調べてたら、SREconなんてものが開催されていたので中を見てたら、「Building a Billion User Load Balancer」というタイトルでFacebookのDNS〜LBまでの話があったので、そのメモです。 Building a Billion User Load Balancer | USENIX tl;dr tinydns + IPVS で Facebook規模はいける httpsの接続確立はかなり重い(RTTの4倍 = RTT 150msとするとGETまで600ms)ので、太平洋越えとかは厳しい httpsを終端させるCDNとかは活用の可能性ありそう (国内だけを考慮するなら影響は軽微かも) メモ L4 LB shiv (IPVS + pyt
Facebookが開発したオープンなスイッチ「Wedge」仕様書が公開、ネットワーク機器もオープン化へ。100ギガイーサ対応スイッチの「Wedge 100」も開発表明 Facebookは、同社が発足したデータセンター向けのオープンなハードウェアを推進する「Open Compute Project」に、スイッチのハードウェア仕様となる「Wedge」が正式に採択されたと発表。Wedgeの詳細な仕様書も公開され、誰でも入手可能になりました。 Wedgeは、いわゆるマーチャントシリコンと呼ばれるチップベンダが市販しているネットワーク機器用のチップと、それを制御するx86ベースのサーバで基本的には構成されています。 その設計図が公開され、誰でも利用可能になったことで、台湾などのODMベンダにWedgeをベースにカスタマイズしたスイッチを発注することができるようになりますし、また今後はWedgeをベー
安倍首相のFacebookの投稿へのコメントを見てたら戦争法案を絶賛するものばかりだったので不自然に思い、「憲法学者も違憲だと言っているのに強行採決はよくない」という主旨のコメントを丁寧かつ冷静な言葉で書いたところ、わずか五分後に安倍首相から俺のアカウントがブロックされた。
「フェイスブック1社だけで、20億ドル(約2400億円)ものエネルギーとインフラストラクチャーに関連するコストを節約できた」――。米フェイスブックのマーク・ザッカーバーグCEO(最高経営責任者)は2015年3月10日(米国時間)、自身のFacebookページでこのように明かした。同社がコスト削減に成功した秘訣は、「Open Compute Project(OCP)」だ。 OPCとは、フェイスブックが2011年に始めた、データセンター(DC)に必要なハードウエアの設計図をオープンソース化する取り組みである。フェイスブックはOPCを始める前から、サーバーやラック、DCの冷却設備などの自社開発を進めていた。これらの設計図をオープンソースにすることで、他の企業と協力してDC用ハードを開発できる体制を整えた。 米国ではフェイスブックよりも前に、米グーグルがDC用ハードの自社開発を進めていた。グーグル
OCPサミットでの発表 まったく新しい種類のコンピュータネットワークを構築するというフェイスブックの計画が大きく前進した。シスコシステムズは落ち着かない気分になるはずだ。 フェイスブックのインフラ担当副社長ジェーソン・テイラーは10日、サンノゼで開かれたオープン・コンピュート・プロジェクト(OCP)サミットで、230億ドルのイーサネットスイッチ市場におけるシスコの支配的な地位を揺るがしかねない以下のような発表をした。 1. フェイスブックが自社のネットワーク向けに開発した「ウェッジ」と呼ばれる新しい進歩的なネットワークスイッチが、アクトンという企業から販売されるようになった。 2. 「ウェッジ」を購入する企業は、ソフトウエアベンダーをキューミュラスとビッグ・スイッチから選択できる。両社ともシスコの直接の競合相手だが、キューミュラスは特に興味深い。同社はシスコのスター技術者だったJ・R・リバ
これはhttp://www.adventar.org/calendars/440の2日目の記事です. はじめに 本エントリでは,最近のデータセンタNWのトポロジについて,データセンタNWの最先端を走っているfacebookの事例をベースに,論文/blog等交えて簡単に紹介したいと思います. 一般的なデータセンタNW まず,現在のDC向けネットワークトポロジの基本となるFat-Treeについて。 Fat-Treeは,一般的なツリーでボトルネックとなる上位階層のリンク帯域を太く/多重化したツリー構成を持つNWトポロジです。 各段のスイッチの上流/下流が同じ帯域幅を提供するように構成することで、Fat-Treeに接続するノードが全体全の通信を一斉に行う最悪のケースにおいても、リンク帯域の食い合いを発生させることなく、ノード間通信の帯域を保証することが出来ます。 このように構成されたネットワークの
Facebook engineering has recently introduced their next-generation data center network architecture planned to be operational in the new Altoona facility. Introducing data center fabric, the next-generation Facebook data center network In this post we are going to look at the design proposed and break down some of the reasons why this design was necessary although maybe still not ideal. Facebook,
On distributed systems broadly defined and other curiosities. The opinions on this site are my own. I had summarized/discussed a couple papers (Haystack, Memcache caching) about Facebook's architecture before. Facebook uses simple architecture that gets things done. Papers from Facebook are refreshingly simple, and I like reading these papers. Two more Facebook papers appeared recently, and I brie
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く