Tag: line

Helper module to generate JWT for LINE OAuth2 v2.1

LINE Messaging API 最近一個比較重大的變更是 access token 新版的發放方式(v2.1),同時也配合 OAuth2 。比較不同的點是它是用 JSON Web Token (JWT) 去取 access token,這樣的好處是如果今天 Provider 本身(也就是付錢的人)請開發商開發 bot ,他並不需要把 channel secret/access token 都給開發商(這通常也暗示你要把開發人員加到 bot admin 去,當然也可以不這麼做,就是麻煩了點)。

改用 JWT 的好處在於開發商只需要知道 channel ID 以及 Provider 幫他申請的一組 Assertion Signing Key (RSA 加密的),對 Provider 來說資訊的保護層級就提高了,終止合作只要把這組 Assertion Signing Key 砍掉就好,不必重新申請 channel access token 且/或 channel secret。

但相反地,開發商沒有 long-lived channel access token,新版的 OAuth2 認證方式使用 JWT 產生的 access token 最長只有 30 天的限期,期限到了之前要再生,某種程度造成程式開發上的困難(安全與方便通常不是站在同一邊的),原本的邏輯上要多加處理 token expiry 。

對於 API 變動來說,可以分為兩部份來看。其一,是 JWT 的取得;其二,是 access token 的取得。前者並沒有直接呼叫到 LINE Messaging API server ,所以在開發 SDK 的時候,可以先著重在已有 JWT 的情況下與 server 端做申請/列出/撤銷 access token 的行為。這部份也提出了 pull request (PR) 在等待官方團隊的審核。

Web interface for generating JWT

而 JWT 的生成就比較麻煩了,在看官網的介紹時發現做 JWT 沒有想像中那麼容易。(中間省略一段心路歷程)最後就是決定自己開發工具來幫助生成 JWT 。

clsung/line-oauth2-helper 名字有 “OAuth2” ,實則沒有關係,是用來生 JWT 的,但因為這生出來的 JWT 也只能讓 LINE OAuth2 v2.1+ 使用,所以才取這個名子。

執行的方式看 README 即可,若是一般 go 開發者使用,那 go get github.com/clsung/line-oauth2-helper/cmd/line_jwt 最快,若是系統沒有 go 的,可以考慮用 docker 的版本(若是都沒有的,請按上一頁離開):docker pull clsung/line-oauth2-helper:stable

用 line_jwt 執行的話,預設生出來的 JWT 需要在 30 分鐘內去 access LINE server ,而生出來的 access token 會在 30 天後過期,要細部調整的則建議就使用 docker / web 的版本。若是要接在程式碼當 API 呼叫的,也可以參考 cmd/ 下的程式自行開發。

2019 LINE Developer Day – Face Recognition Check-in Mechanism

人臉辨識是近年來非常流行的技術,如今幾乎已是深度學習的天下了,而這門技術的應用上,現在還是非常的火紅的話題。這次參加的 LINE DevDay,就採用人臉辨識當做報到的機制。

2019/11/20 報到現場實況

而在第二天,也安排了議程來說明 LINE (NAVER)是如何開發、設計與導入到 LINE DevDay 2019 會場的報到流程。

Speaker: Seungyoun Yi

由於我們自己也有在研究人臉辨識,也有用在 check-in 上(我們叫刷臉打卡),所以在第一天報到的時候,就有特別注意一下偵測的時間,以我報到的經驗,大約花了3~4秒(兩天都是),並沒有像官方宣稱的不到一秒,但搭配一直轉圈圈的 UI ,也並不會讓我感覺到等很久。實際體驗的時候, iPad App 上的圈圈會跟著你的臉部範圍動,所以可以推測時間是花在臉部特徵擷取(Facial feature extraction)或是特徵比對上。既然講到此,我們就先由講者的第二段(Face Engine)說起。

人臉辨識目前的作法都是 1) 偵測人臉 2) 對齊人臉 (alignment) 3) 臉部特徵擷取 4) 人臉特徵比對 。通常步驟 1/3 是相對容易的,而 2/4 就比較難了。 2 的問題是人臉的角度通常不會剛剛好,要正確定位眼鼻口眉毛並不是像一張面膜一樣貼上去就好(為了說明方便,實際上不是去定位這個是眼睛這個是嘴巴)。而 4 的問題在於,當資料庫愈大的時候,需要比對的資料就更多,計算量也就更大,要在短時間就做完,沒有硬體(如 GPU )的幫忙,通常就要在演算法上鑽研很深才行。所有會需要上線深度學習模型的團隊,都會想辦法去做 model size reduction/compression (without losing too much accuracy), NAVER 團隊同樣地也花了不少時間在做深度學習模型的優化。團隊的目標就是在行動裝置(也表示不見得有 GPU )上能達成即時的人臉辨識:Our standard is real-time in mobile CPU environment。由投影片的 16~55 頁有團隊的實驗成果,在此並不贅述。不過不像 Clova team ,並沒有看到團隊的論文發表,不太確定實際的成果為何?

回頭來講臉部辨識應用,不外乎 1:1 、 1:N 的應用場景,而即時辨識的場景對於 UX 的要求更是重要,對於刷臉報到來說,如果節省等待時間、辨識時的過場畫面(不會讓人感到不耐煩)、辨識不出的解決流程,其實這考驗主辦單位的場控能力,有 UI 呈現的地方,就會需要排演 SOP 。這次的報到入場我覺得還蠻順的,但是也可以感到 LINE 官方對於這個的重視,許多工作人員也跟在旁邊引導。

由演講可知,講者也是在第三段接著討論臉部辨識的核心實作到服務應用。這次的報到是有 App 的,配著投影片也可以看出是 Client/Server 架構的,由 Client (App) 負責做 Feature Extraction ,接著再傳到後端 Server 做比對。

由上面幾張投影片可以了解透過好的 UI/UX 設計,可以降低錯誤率,為什麼呢?因為對於臉部辨識引擎本身,它就是 API 有傳進來的臉部特徵就會去比對,如果前端的介面設計是什麼都往後面丟,那整體的效果就不會太好了,所以實務上不需要處理太多 corner case 的情況,就是把這些可能會出錯的,由前端的 UI/UX 來避免。當然,這不是說 UI/UX 就不用寫程式,像上面寫的眨眼偵測啦,或是角度,那些也是要開發程式的。以 LINE 在這次 DevDay 之前,也是做了幾次實地測試(Field Test),可以感覺出來他們是愈來愈有信心了。

已經有不少經驗了

照舊,放上一張圖當結尾(雖然我認為還要加上 UI/UX 才更恰當)。

Goal of AI

2019 LINE Developer Day – Project Management and Agile

近十年來(其實應該超過十年了),敏捷開發逐漸在軟體工程中佔有一席之地,這個的定義大概就是如果有人說他做軟工的,那你可能會回一句「所以你對 Agile 應該很熟吧」

Speaker: Minoru Yokomichi

在 LINE DevDay 的第二天下午,有個議程也是在分享 LINE 內部是如何進行專案管理的。講者所在的部門很特別,稱作「Effective Team and Delivery Department」,由名稱可以看出來這個部門的重心。通常接著的關鍵字就是 Project Management 、Product Management 、 Agile 或 Scrum,果然講者的背景也是如此,不過多了 Engineering ,這也是符合 LINE 的企業文化。

To make “Teams” and “Delivery Processes” more effective

左邊的子部門 Delivery Management Team 中,是由一群 TPM (Technical Project Manager) 組成的。 LINE 的文化認為 Project Management 對於 Product delivery 是很重要的,但 Project Manager 這個角色並不是那麼地被需要;也就是說,LINE 的 TPM 負責的並不只是 Project Manager 這個角色任務。

產品開發的三環相扣

上圖可以看出他們對於產品開發中,對於 Product/Project Management 與 Development 各自的角色工作定義,一般而言對於前兩者的角色也就是稱為 PM (Product Manager/Project Manager) ,而後者就包含了 Engineer / QA 。

LINE 的 TPM 組成
彼此工作是有區隔,但沒有明確界限

而講者藉由 R & R 的示意圖,說明 PM/Eng 雖然工作是有各自的職責,但在實際上的產品開發合作上,卻不會那麼壁壘分明。當彼此的界限模糊的時候,就不容易有事情掉在地上沒人做的時候了,不過以我自己的經驗,我認為要達成這個目標,除了企業文化能支撐之外,團隊的成員心態也非常重要。而心態的養成,也與主管甚至高階主管的支持有非常大的關係。以這個角度看,也許 LINE 做的很成功?(因為沒有在 LINE 任職,有些內部衝突是看不到的)

談完了左邊的,接著拉到右邊的子部門 Lean & Agile Team。在這方面, LINE 的 Agile 也奉行「Be Agile, not just do Agile」,以落實 Agile 的價值與原則為主,而非一昧採用其方法論。

支持性的工作為目標

整個部門工作重心是以 Support 其他部門為主,這中間包括了提供訓練、協助解決問題以及建立內部跨域的社群(這點就跟目前很多的社群 meetup 是一樣的意思)。

簡介完了之後,搭配而來的就是實際例子,講者是以 LINE News 的產品開發為例,但我想組織圖應該是可以通用的。

初始的組織圖

通常一間大公司的組織也就大概長的像這樣子,這類的組織特性是有管理者們層層把關,做一個既有產品的優化是很容易的,因為管理者(或是資深的老鳥)可以靠著過去的經驗來判斷;但若是產品還在初期的階段,從這個角度看上去,就是看到層層的山頭了。

從組織圖迭代的演變,我們可以看得出來,工程師永遠是最好講話的(笑)。目前看起來,左方的管理群們一時之間是很難拆開的,這個我想工作個十年的人大概都可以理解是怎麼一回事吧(茶)。

接下來,講者也介紹了以前述三個核心為本的,各式各樣 LINE 提供的 Training / Workshop / Team Building / Community ,這些建議直接連到投影片去看。個人覺得這些文化養成雖然不見得能讓 LINE 變的強大,但是很有機會能讓 LINE 變的偉大的。

最後,放一張 Product Management 的 global view 為結尾(其實我不知道為什麼寫了個 Thailand 卻什麼都有啊)

Global view of LINE Project Management

2019 LINE Developer Day – Hadoop Cluster Federation With 2k+ Nodes

上週以 LINE API Expert 的身份參加了今年於東京台場舉辦的 LINE Developer Day 活動。其中有一場硬底子的分享我覺得蠻值得一提的,簡單一句就是用 Hadoop 在上層做 Cluster Federation ,總共管理了超過二千個節點。

2019 DevDay 100+PB Scale Unified Hadoop Cluster Federation With 2k+ Nodes
100+PB Scale Unified Hadoop Cluster Federation With 2k+ Nodes

之所以講硬底子,因為 LINE 工程師在進行這個擴展/遷移節點的過程中,遇到的問題有送 upstream patch 回原本的專案 repo (簡單列一下投影片有提到的,照看起來應該還有不少):

各式的服務,各式的資料

幾年前還「只不過」是一個即時通訊軟體的 LINE 。時至今日,LINE 本身的服務量已經是愈來愈大了,開始嘗試提供各式各樣的服務,想當然而所有的資料格式欄位(以 SQL 的角度來看)各有不同。

2k 個資料節點,存了超過 100PB 的資料

看起來很棒,實際上對於 Data Platform 部門的工程師則不然,如果羅馬不是一天造成的,這些服務與資料並不是同時打造好提供給大家使用的,這是日積月累的使用記錄,加上服務系統迭代更新後,產生的資料。可以參考去年的演講,那時候的資料看起來還沒有這次的一半多。所以理想與現實的差距,造就了 10 座以上的 HDFS Clusters ,在系統維護與軟體更新上都拉大了難度與時間。各個 Cluster 的版本不一,能提供的 API 以及工具也無法統一。最後工程師們決定整頓一下,一統公司內的 Hadoop 江湖(想想一次可以送 job 在 2k+ node 上跑,想到就…..)

目標: 「一法度衡石丈尺,車同軌書同文字。」

當然改變不是一蹴而就,當年(應該是每年)留下來技術債也是要還的(OS: 砍掉重練就不用了…),工程師們決定邊開飛機邊改引擎 (…)。所以定了幾個 Criteria ,包括 Minimum Downtime、Incremental Migration 以及最重要的 High Security Level/Minimum Risk 。

講者簡介了幾種他們一開始規劃的想法,比如建一個新的,然後把所有的資料往裡面搬。這個當然是一個理想但不實際的方法,除非你不在意 downtime 、不在意相容性、不在意因此要多買一倍的儲存空間。另一個進階的想法則是把最大的 cluster 再擴大,然後把其他的 cluster 整合進去,這個遇到的問題是實務面的:最大的 cluster 沒有使用 Kerberos;有兩個非常大的 cluster 是有頻繁的用戶存取的;整合完, Hadoop 還是需要再更新。最後方法就採用了 HDFS Federation 架構來解決這個問題,基本上利用 HDFS Federation 可以有 multi-namespace 的特點,來支援後續的 data/service migration 。

Start small, Iterate fast.

但即使如此,在實作上還是運到了一些問題,有經驗的工程師聽到這裡大概也可以猜出來,各 cluster 原始的版本相容性會直接地影響到 merge 的成果,在這中間的過程中踩了不少雷,也因此提出 patch 增強(或修正) upstream 原有的功能。而這些的修改,都是在一邊更新 cluster 並作適度的 ETL 時,同時間也能讓原有的系統能夠持續運作,我想這點要對 Data Platform Dept. 的工程師及架構師們致敬。

最後放上一張我認為很能代表這場演講的投影片。

In short words, you do this and achieve that…. (amazing)