看板 NTU 關於我們 聯絡資訊
Hi 大家好,我們是 臺大 AI Safety 讀書會,由來自臺大學生與校友們創辦, 今年年初有在板上宣傳且有不少同學踴躍參與, 可惜的是讀書會並沒有辦法容納那麼多同學。 所以經過討論後,決定在今年暑假舉辦兩個梯次的 AI Alignment Workshop, 日期分別在 8/2-3 與 8/16-17,歡迎各位同學踴躍參與。 以下是我們這次活動的介紹。 --- 課程內容:ARENA 3.0 ARENA (Alignment Research Engineer Accelerator) 是國外已驗證 有效的 AI 安全性技術課程。 這次我們引進台灣,讓大家能系統性地學習 AI Alignment 相關技術。 兩天你會學到: Day 1: AI Safety基礎與機制解釋性 - AI Alignment 重要性與當前挑戰 - Transformer 架構深度理解 - Sparse Autoencoders (SAE) 解釋性技術實作 - Mechanistic Interpretability 分析 Day 2: 強化學習與模型評估 - 人類反饋強化學習 (RLHF) 原理與實作 - LLM 評估方法論 - Inspect 評估框架應用 師資與 TAs 陣容 主講:劉禹彤 (Tik Tok Software Engineer)、呂栢頤 (網媒博四)、 劉祖丞 (Travo AI Lead) TAs:張嘉泰 (資訊二)、蔡侑宸 (數學四)、胡皓雍 (電信碩零)、 蔡鎮宇 (Junyi Academy Data Team Lead) 活動資訊 時間:第一梯次 8/2-3、第二梯次 8/16-17 (週末),10:00--18:00 地點:台大德田館 R309 人數:每梯次 25 人 費用:免費 (感謝 Open Philanthropy 贊助),並提供免費的午餐 & 下午茶 適合誰參加? - 有 Python 程式設計經驗 - 對深度學習有基本認識 - 能完整參與兩天課程 - 對 AI 安全性有學習動機 主要歡迎:大學生 (資訊/電機/數學/物理)、碩士生、對AI有興趣的高中生或工作人士 實際期待 兩天無法讓你成為專家,但能夠: - 建立對 AI Alignment 領域的系統性認知 - 掌握基礎的機制解釋性分析工具,理解 RLHF 在 AI 對齊中的作用 - 獲得後續深入學習的明確方向 報名方式 官網:https://reurl.cc/QaL289 報名表:https://reurl.cc/yArOxO 這是很好的入門機會,建議有興趣的同學儘早申請 如果你身邊有對 AI 安全性感興趣的朋友,歡迎標記他們或分享這篇貼文! 主辦:AI Safety Taiwan (EA Taiwan) 協辦:NTU AI Safety 讀書會 #AISafety #AIAlignment #MachineLearning #Taiwan #ARENA -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 140.112.90.77 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/NTU/M.1753344949.A.C95.html ※ 編輯: ariainaqua (140.112.90.77 臺灣), 07/24/2025 22:41:35
IsonaEi: 推推,已填報名單 07/25 06:45