白宮下令政府機關 Open Data

白宮所下達的行政命令,命令全美政府機關在公開資訊時,必須提供電子格式,且可容易被程式讀取:「Executive Order -- Making Open and Machine Readable the New Default for Government Information」。

重點是:資料不只要「公開」,還要「可被機器讀取」與「可被重複利用的授權」,並且要求政府單位強制提供。

英國政府將優先考慮 Open Source 應用

Slashdot 上看到的文章:「UK Government Mandates 'Preference' For Open Source」,引用的新聞是「Government mandates 'preference' for open source」,英國政府的說明原文則是在「Open source — Government Service Design Manual」。

第一段就馬上說明無論是作業系統、網路軟體、網站伺服器、資料庫,甚至是程式語言,都應該優先考慮 open source 方案,再考慮 closed source 替代方案:

Use open source software in preference to proprietary or closed source alternatives, in particular for operating systems, networking software, Web servers, databases and programming languages.

只有在少數狀況下才應該使用 SaaS 或是安裝非 open source 軟體替代:

Problems which are rare, or specific to a domain may be best answered by using software as a service, or by installing proprietary software.

不過這份 manual 還未定案,還可以看看會有什麼更新...

Google 發表與 zlib/deflate 相容的壓縮程式,再小 5%...

GoogleApache License, Version 2.0 發表了與 zlib/deflate 相容的壓縮程式:「Compress Data More Densely with Zopfli」。

與 zlib/deflate 相容代表現有的 browser 都不需要變動,而在 project 頁面上是這樣寫:

Zopfli Compression Algorithm is a new zlib (gzip, deflate) compatible compressor. This compressor takes more time (~100x slower), but compresses around 5% better than zlib and better than any other zlib-compatible compressor we have found.

比起現有的 zlib-compatible compressor 大約慢 100 倍 (XDDD),但對於靜態內容的幫助會很大,因為壓一次後就可以用很多次。

諾貝爾獎的網站有 API 了...

在「Nobel Prize Gets Official API」看到諾貝爾獎的網站提供 API,讓人存取歷年諾貝爾獎得主的資訊了 XDDD

官方的新聞稿在「Open Data about the Nobel Prize now Available」這邊,API 資訊則在「Developer Zone」這邊。

舉例來說,http://api.nobelprize.org/v1/prize.json?year=1901 可以抓出 1901 年諾貝爾獎得主的資料 (JSON 格式)。

而除了 JSON API 外,另外還在 data.nobelprize.org 提供 Linked Data 格式的資源。

資料不多,但蠻有趣的...

白宮 We the People 提高答覆連署人數

白宮宣佈提昇 We the People 的強制答覆連署上限,將原本 25k 人提昇至 100k 人:「Why We're Raising the Signature Threshold for We the People」。

因為最近參與的人變多太多:

另外白宮給了一份 Infograph,更詳細的說明參與的狀況:

Overview

英國有個 data.gov.uk,美國有個 We the People,再加上昨天看到的 alpha.data.gov (A collection of open data from the government, private sector, and non-profits that are fueling a new economy.),感覺台灣跟世界上的已開發國家愈差愈遠了...

data.gov.ukalpha.data.gov

Netflix 的 Open Connect,以及 Super HD 與 3D 電影...

Netflix 在半年前就開始推廣 Open Connect Content Delivery Network,類似於 Google 的 Google Global Cache (GGC)。

Netflix 的 Open Connect 計畫提供兩種方式讓 ISP 參與,第一種方式是在各地機房 peering (地點在「Open Connect Peering Locations」這份資料裡有條列出來),需要用 10Gbps 以上的線路介接,實際流量以 95% 計算後必須在 2Gbps 以上。

另一種更進接的方式是讓各 ISP 在自己的網路放 Netflix 所設計的快取伺服器,Netflix 會把該 ISP 的流量導到這組伺服器上面 (4U 的伺服器,有兩個 10Gbps SR/LR,36 顆 3TB SATA,加上 2 顆 512GB SSD),這對於 ISP 與內容業者都可以節省頻寬成本。

這佈局佈一陣子了 (大約半年),Netflix 前幾天宣佈有 Open Connect 計畫合作的 ISP 將可以看 Super HD 與 3D 電影:「Netflix Announces Major ISPs Deploying Their CDN Caches; New 3D Streaming」,這些電影將會用掉 7Mbps~12Mbps 的頻寬。

Netflix 在北美流量比 YouTube 還大,除了之前的 Multi CDN vendor 策略以外,很自然會想要建自己的 CDN,畢竟有量之後很多事情自己做會比較節省成本...

MySQL HandlerSocket 的情況...

前幾天 jnlinOSDC.TW 2011 上面講了「HandlerSocket – A NoSQL Plugin for MySQL」,剛好 Percona 的 Ryan Lowe 也提到了「What’s up with HandlerSocket?」,試著分析 (並猜測) HandlerSocket 為什麼沒有被廣泛使用。

除了技術的問題外,最主要在於運作:Open Source 不是把程式丟出來就覺得沒事了,要僅可能讓使用者容易使用。

比較好運作方式是在重大的 bug 修掉之後就推出 minor version release,一方面讓一些願意整合的單位有「基準」可以整合 (像是 Percona 這樣的公司),另外一方面可以讓 community 感覺是個有在動的 project...

像是文章裡提到的兩個 bug,一個在今年年初已經修正 (write invalidate),另外一個大約兩個禮拜前修正了 (insert auto-increment),只是很多人不太清楚而已。

目前這個專案的感覺跟 Facebook 丟出來的 memcached 還蠻像的:「facebook / memcached」,Facebook memcached 的情況是很明顯「老闆說要 open source,我就丟出來吧」的感覺,原來的 community 也懶的理他,看一看有沒有可以用的 code 可以整合,然後繼續發展自己的...

Stack Exchange 旗下站台的統計

Stack Exchangedata.stackexchange.com 公開了所有旗下站台的統計資訊:

最大的三個果然是 stackoverflowsuperuserserverfault...

另外在「Stack Overflow 2010 Analytics」則是公佈了訪客的統計資料... (這類型站台的 Firefox 果然遠超過 IE...)