第 172 期 - 發動我風光的引擎

本週專欄

Payment System 實戰系列(二):盤點各大支付系統(Stripe / Apple IAP / Google IAB)

本文介紹了三個主要的支付系統:Stripe、Apple IAP、Google IAB。在選擇支付系統時,需要注意哪些必要元素,例如可測試的環境、良好的後台以及良好的文件。

對於 Stripe 而言,它提供了獨立且完整的測試環境,後台 Dashboard 也相當完整,因此非常方便使用。Apple IAP 的優點是與 iOS APP 操作上無縫,使用者體驗較好,但文件散落各處,後台 Dashboard 也較不佳。Google IAB 在 Android APP 操作上無縫,使用者體驗較好,但是測試環境不健全,後台 Dashboard 也較不好用。

最後,作者提醒大家,如果要上架 APP 到 App Store,而 APP 又有應用程式內付費,一定要接 Apple IAP,否則不會通過審核。

JavaScript

[英]JavaScript 等於等於踩地雷遊戲

在提醒了 JavaScript 的 == 的恐懼之後,踩地雷遊戲將感覺像在公園散步一樣輕鬆。如果您需要深入瞭解,ECMAScript 規範的 7.2.14 節將對您有所幫助,否則呢?除非您有充分的理由,否則請使用三個等號(===)。

[英] 2023 Web Framework Performance Report | Astro

此報告的目的是通過現實世界的數據來更好地了解框架選擇、性能和實際用戶體驗在 Web 上的關係。我們將嘗試回答一些關鍵問題:

  • 現代 Web 框架在現實使用和性能方面的比較如何?
  • 框架選擇是否會影響網站的核心 Web 視覺效果?
  • 框架選擇與 JavaScript 載荷大小有多大關聯,以及其影響如何?

為此,我們查看了三個不同的公開可用數據集:

[英]A Business Case for SvelteKit

這篇文章講述了作者在 XtendOps 工作期間,如何將公司的技術堆棧轉換為 SvelteKit 框架的過程。文章詳細介紹了作者在評估 SvelteKit 可行性時需要解決的問題,並分享了他們如何應對這些問題的解決方案。通過使用 SvelteKit,作者的團隊成功地實現了更好的開發體驗和技術性能,並且對公司的業務產生了實際影響。文章最後還提供了一些有用的建議,以協助其他公司在轉換到 SvelteKit 時取得成功。

System Design

RESTful API: How to design paths and identify resources

設計 RESTful API 應該已經是後端工程師的必備技能了,這篇文章會教你怎麼從「資源」的角度下去進行設計,讓 Client 在使用時更加方便、符合直覺。

Instagram System Design

大家應該都用過 Instagram,如果想要自己寫一個 Instagram,那你會怎麼實作呢?這篇文章講了怎麼設計一個類似 Instagram 的 App,另外,文中也有提到怎麼進行容量估算、以及如何做資料庫的設計等等,如果對於大型系統的設計有興趣,那一定要看看這篇文章!

Blue Green Deployment for Node.js Without Kubernetes

如果你對於怎麼用 CI/CD 來做藍綠部署有興趣,那你來對地方了!這篇文章介紹了藍綠部署的基本原理,並且跟你說在沒有 K8s 的情況下,要怎麼自己把藍綠部署的流程串起來,不管是理論還是實務方面都講得非常完整哦~

AI

[英]Elon Musk 悄悄啟動新的人工智慧公司 X.AI,挑戰 OpenAI

根據最新報導,特斯拉創始人 Elon Musk 將推出一家名為 X.AI 的新人工智慧(AI)初創公司,直接競爭 OpenAI。據《金融時報》報導,Musk 已經開始組建 AI 研究和工程師團隊,並與 SpaceX 和 Tesla 的幾位投資者談過支持他的新 AI 初創公司的事宜。此外,他還購買了約 1 萬個圖形處理單元(GPU)來為新的 AI 項目提供支持。然而,這一決定引起了 OpenAI 聯合創始人 Sam Altman 的擔憂。此前,Musk 在 OpenAI 的董事會上辭職,並批評該組織追求人工通用智慧(AGI)的做法。這次,Musk 的新冒險是在他表達對人工智慧潛在危險的擔憂和對監管和監督的需要之後而進行的。

[英] 為什麼負責任的 AI 導致更準確和有效的 AI 模型?

負責任的 AI 定義了在設計、開發和部署 AI 模型時確保安全、公平和道德的承諾。通過確保模型按預期運行 - 並且不會產生不良結果 - 負責任的 AI 可以幫助增加信任,保護免受損害,並提高模型表現。

為了負責,AI 必須是可理解的。這已經不是人類規模的問題了;我們需要算法來幫助我們理解算法。

GPT-4,OpenAI 的 大型語言模型(LLM) 的最新版本,是基於互聯網的文本和圖像進行訓練的,而我們都知道,互聯網充滿了不精確之處,從小的錯誤說法到完全的杜撰。儘管這些錯誤本身可能很危險,但它們也必然產生不太準確和智能的 AI 模型。負責任的 AI 可以幫助我們解決這些問題,並朝著開發更好的 AI 前進。具體而言,負責任的 AI 可以:

  1. ** 減少偏見 **:負責任的 AI 專注於解決開發過程中可能被建立到 AI 模型中的偏見。通過積極努力在數據收集、訓練和實施過程中消除偏見,AI 系統變得更加準確,為更廣泛的用戶提供更好的結果。
  2. ** 增強普遍性 **:負責任的 AI 鼓勵開發在不同情境和不同人群中表現良好的模型。通過確保 AI 系統在各種情況下進行測試和驗證,可以增強這些模型的普遍性,從而產生更有效和適應性的解決方案。
  3. ** 確保透明度 **:負責任的 AI 強調 AI 系統的透明度的重要性,使用戶和利益相關者更容易理解決策是如何做出的以及 AI 的運作方式。這包括提供算法、數據來源和潛在限制的可理解解釋。通過促進透明度,負責任的 AI 促進了信任和責任,使用戶能夠做出知情決策,促進了對 AI 模型的有效評估和改進。

[英]OpenAI 的首席執行官表示,巨型 AI 模型的時代即將結束;GPU 危機可能是其中一個原因。

OpenAI CEO Sam Altman 認為,人工智能模型不斷變大的時代即將結束。Skyworth AI 應用研發技術中心副總經理陳瑩認為,在大數據時代,人工智能的「三高」問題——高成本、高門檻和高風險——是制約人工智能發展的主要阻礙。成本問題是人工智能發展的瓶頸之一。如今,隨著大數據的快速增長,人工智能的計算需求越來越高,計算成本也不斷增加。目前,以 Nvidia 為代表的 GPU 廠商正在推出一系列面向人工智能的 GPU。這些 GPU 的價格高昂,單價甚至可以達到 3 萬美元以上。此外,GPU 的使用壽命也較短,需要不斷更新。

Writer:

  • @louisby0123 - Googler. UC Berkeley EECS Master Student. System Architect & Backend Engineer. President of 7th Mei-chu Hackathon, founder of Hackathon Taiwan Junior.

Maintainers:

  • @LarryLu - 我是 Larry,傳說中的 0.1 倍工程師!
  • @GQSM - Hi!我是神 Q 超人,一個先衝再說的男人。
  • @LukaTW - 一名全身都是死角的工程師。
  • @smalltown - 熱愛鑽研各種可以提升雲端服務品質及增進團隊開發效率的開源技術。
  • @RicoChen - 熱愛許多技術且努力看透技術的本質,如果有什麼好玩的技術,還請各位歡迎直接找我聊聊。

Feedback

本週呈現主題方式做了一些改變,希望讓讀者能夠更快速精準的找到自己要的資訊。也加入社群活動這個區塊,每週更新社群活動的資訊。如果有任何建議,歡迎私訊 星巴哥技術週刊 FB 粉絲專頁 與我們聯繫。