qrtt1 積分 1 編輯於

買/租 貴一點的就有了。Azure Web Site 應該就是這型的,不像 Azure Cloud Service 自己設的用 IP 為主的。

qrtt1 積分 4

至少講 Unit Test 比較不會被回:「蛤!?那是什麼」。然後,越來越多人知道有 jenkins 幫你跑測試,雖然可能不知道持續性整合。

qrtt1 積分 2 編輯於

在卡提諾的版本1 有先前的新聞跟鄉民的討論。

「Leo Grand只是網路眾多傳奇中的一個過去式。他當初賺到的錢全用來支付他的儲物間月租費,以及他每天的生活所需,而且他也沒有花太多的時間在研究程式上了。」

看來收入不足以支持生活開銷的感覺,也沒有心力去精進專業。聽起來就像我們現在低薪族的困境,是否要再熬下去,想著「總有一天會加薪的」,或是賺得不夠花「回家啃老算了」,也可能成為流落街頭的人!?

qrtt1 積分 1

網路上查了一下果真有人寫 plugin 來搶機器 卖光了?Linode 日本东京机房抢购方法1,不過 Linode API 蠻簡單的,自己手刻也方便就是了。

qrtt1 積分 0

試著 ping 某台 linode jp 的 server,我家可以耶

qty:~ qrtt1$ ping 106.186.16.142
PING 106.186.16.142 (106.186.16.142): 56 data bytes
64 bytes from 106.186.16.142: icmp_seq=0 ttl=53 time=42.982 ms
64 bytes from 106.186.16.142: icmp_seq=1 ttl=53 time=41.203 ms
64 bytes from 106.186.16.142: icmp_seq=2 ttl=53 time=42.194 ms
64 bytes from 106.186.16.142: icmp_seq=3 ttl=53 time=39.749 ms
64 bytes from 106.186.16.142: icmp_seq=4 ttl=53 time=39.876 ms
64 bytes from 106.186.16.142: icmp_seq=5 ttl=53 time=40.155 ms
qrtt1 積分 1

有考慮買個和室桌直接堆在辦工桌上,因為我的桌子是個直角那種的,另一邊其實空著(亂堆東西)。也許堆個和室桌就剛好高度能符合了。

qrtt1 積分 2

暫時性的,我習慣靠 /etc/hosts 解決。

qrtt1 積分 0 編輯於

我是遇到才認識 ansible_ssh_host 的用法的。 domain 或 IP 能通就可以了,不過有時會做點 special 時就可以用 /etc/hosts 把 domain 蓋掉 :P

qrtt1 積分 1 編輯於

遇到這個問題是在用 Azure Cloud Service 遇到的。因為 Cloud Service 是透過 1 個 FQDN 去溝通的,它看起來會像是:

yourdomain.cloudapp.net

當你有多台 vm 在裡面的時候,就會把 ssh port 對應到不同的 port,例如:

vm1:22 => yourdomain.cloudapp.net:2021
vm2:22 => yourdomain.cloudapp.net:2022
vm3:22 => yourdomain.cloudapp.net:2023
vm4:22 => yourdomain.cloudapp.net:2024

那麼寫 ansible inventory 時就要寫成這樣子(原來的 host 就隨意取個代號就行了):

[service4azurecloud]
vm1 ansible_ssh_port=2021 ansible_ssh_host=yourdomain.cloudapp.net ...
vm2 ansible_ssh_port=2022 ansible_ssh_host=yourdomain.cloudapp.net ...
vm3 ansible_ssh_port=2023 ansible_ssh_host=yourdomain.cloudapp.net ...
vm4 ansible_ssh_port=2024 ansible_ssh_host=yourdomain.cloudapp.net ...
qrtt1 積分 1

Azure 部分少提到 Availability Sets(因為當時還沒理解它是做什麼用的),會知道是來自於 William Yeh1 FB 上的討論。引述湯姆哥的回文:

如果是硬體損毀,是以 VM 為單位重開,如果是 Host OS Security Patch 等維護,是以 Cloud Service 為單位重開,但是用戶若有設定類似 AWS Availability zone 的 availability set,Cloud Service 內的兩台 VM 不會同時重開
qrtt1 積分 0

以前古早年代有試過用 msn library 寫這樣的東西,現在工具多好方便啊 xd

qrtt1 積分 1 編輯於

其實不要開太大還有個好處是 memory leak 時,能夠及早發現及早治療。萬一是爆在 1x GB 把 memory dump 出來要用 mat1 來看誰是兇手也很麻煩。

qrtt1 積分 0 編輯於

應該會有 HA,但得考慮到真的爆炸時要處理一下 :P 看起來 ec2 spot instance + EFS 很有看頭呢!

qrtt1 積分 2 編輯於

美中不足的是要爆幾次後反覆調整才知道讓把峰值放在哪。

以前比較「擠」的是候是 Tomcat 跟 MySQL 放同一台,oom killer 要殺哪一個還不一定,實在太刺激了。乾脆就讓 Tomcat 獨立到其它台(剛好建 2 台套上 LB 可以做輪流更新程式。)

qrtt1 積分 1

感謝分享,剛好有朋友在問 azure 有沒有這樣的功能,之前是建議他用 azurefs1 或自己弄 smb 或 nfs 來掛的。

qrtt1 積分 3

想起去年的 EHC 比賽,有人把 shared configuration 放在 nfs 上,不過剛好他裝 nfs 那台的 server 會在測試情境中被重開,於是他的 hadoop 就整組 GG 惹。

qrtt1 積分 2

我比較習慣看峰值的剩餘空間,希望 OS 至少還有 1GB 能用比較安心,不然記憶體用多的程式可能會遇上 kernel 的 oom killer 就麻煩了。

qrtt1 積分 2 編輯於

我是都有在追 gslin 的 RSS 才知的,不過要注意一下提醒事項。要先在 staging 測過,而且使用前記得備份。 :P

我自己只用過他的備份工具,還沒機會用到 pt-* 系列的工具。 這篇的 master/slave 強制同步妙計1 真令人驚豔啊。

qrtt1 積分 2 編輯於

innodb_log_file_size 跟 buffer 都要開大一點,用預設的很杯具

qrtt1 積分 1 編輯於

我們量小,加上流程上的 bug ........,就丟給 PM 了:P (就當規格沒訂好的懲罰唄!?)

qrtt1 積分 0

這樣算是有碼的還是無碼的版本!?