熱門關鍵字:  聽力密碼  聽力密碼  新概念美語  單詞密碼  巧用聽寫練聽力

爐邊夜話——深入淺出話AI

中國水利水電出版社
    【作 者】汪建 著 【I S B N 】978-7-5226-3018-2 【責任編輯】周春元 【適用讀者群】科技 【出版時間】2025-02-25 【開 本】16開 【裝幀信息】平裝(光膜) 【版 次】第1版第1次印刷 【頁 數(shù)】320 【千字數(shù)】465 【印 張】20 【定 價】68 【叢 書】 【備注信息】
圖書詳情

    本書始終圍繞著人工智能(AI)的本質(zhì)及原理進行講解,循序漸進地探索了機器學習、深度學習、強化學習以及大模型等AI的核心原理。

    它們的技術(shù)根基可以進一步回溯到統(tǒng)計概率論、線性代數(shù)、微積分、最優(yōu)化理論等學科,而本書將生硬的基礎數(shù)學原理通過客觀世界娓娓道來,幫助讀者克服學習AI的障礙,讓復雜的理論變得易于消化,讓抽象的概念變得具體可感。

    無論你是人工智能領域的新人,抑或是有一定經(jīng)驗的研究者,本書能成為你探索AI世界的得力助手。

    你在學習AI的道路上可能積累了很多的無法理解

    包括但不限于概念、算法原理、數(shù)學實現(xiàn)細節(jié)等方面

    你可能初入AI

    便陷入了機器學習、深度學習、NLP、ChatGPT、AI、AIGC、LLM等領域的包圍

    分不清誰是誰、哪跟哪,突然不知道AI應從何學起、如何學起

    那么,你不應該錯過這本書

    隨著大模型掀起的新一輪人工智能滔天巨浪,以ChatGPT為代表的大模型產(chǎn)品正以驚人的速度滲透著我們生活的方方面面,從工作到娛樂,從學習到社交,幾乎無孔不入。對于多數(shù)普通民眾來說,初次被人工智能(Artificial Intelligence,AI)所震撼估計是2016年阿爾法狗(AlphaGo)的橫空出世,AlphaGo擊敗圍棋世界冠軍讓我們覺得機器的整體智力很快就會超越人類。此后人工智能沉寂了一段時間,直到2022年年底ChatGPT的出現(xiàn),再次吸引了全球民眾的眼球,一個具備很高智能的機器人正在與這個世界對話。那么,下一個讓我們震撼的人工智能事件又會是什么呢?

    實際上,人工智能并非是近些年才有的新鮮事物,早在1956年就被正式提出,至今已經(jīng)發(fā)展了68年了。人工智能的發(fā)展雖然十分曲折卻也波瀾壯闊,在人工智能被提出來后,它的前景吸引了很多人投身該領域,但卻在發(fā)展過程中經(jīng)歷了多個“寒冬”。好在“寒冬”并沒有徹底澆滅人工智能的火苗,而是在每個“寒冬”階段都向前邁一步。

    人工智能就是人工地去制造智能。想要創(chuàng)造出像人一樣的智能就必須先深入理解智能,而人類的智能就藏在大腦中,所以創(chuàng)造智能最好的路徑就是徹底弄清人類大腦中每部分的組成及運作機制,這樣就可以制造一個“大腦”來實現(xiàn)人類的智能。但這種方式并非主流的方法,因為我們的大腦實在是太復雜了,甚至可以說比整個宇宙還復雜,當前人類對我們自己大腦的認知還是太淺了。然而這堵墻并沒有擋住人類前進的腳步,既然無法徹底搞清大腦,那就去模擬吧!實際上智能就是一種“輸入—輸出”模型,通過某一種輸入來產(chǎn)生一種輸出。通過構(gòu)建某種人工智能算法來實現(xiàn)輸入到輸出的映射或生成,這樣就成功模擬出智能了,這也是當前主流的人工智能實現(xiàn)方式。

    人工智能的運作原理是什么?我相信大多數(shù)人都會產(chǎn)生這種好奇心。十年前,正是這種好奇心讓我走上了人工智能的研究道路。我現(xiàn)在依然清晰地記得剛接觸到人工智能時自己內(nèi)心的好奇與興奮,縱使當時AI還沒達到如今“大模型”的震撼效果,但機器學習和深度學習的各種神奇的AI算法已經(jīng)深深地吸引了我,于是我決定一定要弄清人工智能這個黑盒子里面裝的到底是什么。此后在多年的時間里我研究了人工智能領域主要的論文和書籍,并且一直從事人工智能的研發(fā)工作,對人工智能的原理機制有了深層次的理解。身處人工智能時代,理解人工智能的運作機制是十分有必要的,知道一個事物和知道一個事物如何運作是完全不一樣的,后者能讓我們思考得更深,走得更遠。

    回溯我的學習經(jīng)歷,我深感在AI領域前行不易。面對晦澀難懂的理論、紛繁復雜的算法,可以說是充滿了挑戰(zhàn)與困惑。從最初對基本概念的迷茫,到逐漸理解復雜算法背后的原理,每一步都充滿了坎坷。猶記得初次接觸機器學習時,面對浩瀚如海的數(shù)學公式和專業(yè)術(shù)語,我猶如迷路的旅者在繁星點點的知識天空下茫然四顧。有時卡在某些知識點上毫無頭緒且久久不得其意,這是一種對知識求而不得的無力感。人工智能的很多知識都是環(huán)環(huán)相扣且背后都是由數(shù)學驅(qū)動的,就好比我要理解卷積神經(jīng)網(wǎng)絡識別圖像的原理,那就會涉及圖像處理、卷積運算和神經(jīng)網(wǎng)絡,而圖像處理又涉及矩陣運算,神經(jīng)網(wǎng)絡又涉及函數(shù)、偏導數(shù)和梯度下降等,最終我們都不得不回歸到更基礎的數(shù)學原理上。這個過程就像在攀登一座高山,通往頂峰的道路層層疊疊且蜿蜒曲折,每一步都充滿艱辛。不過當我們在山頂回頭看時,總能看到更壯麗的風景。

    我相信,在探索人工智能之旅中我所遇到的困難和疑惑,也是所有初學者所面臨的共同的問題。于是我萌生了一個念頭:撰寫一本能夠幫助大家循序漸進地探索人工智能原理的書籍。這本書要由表及里地、深入淺出地講解人工智能的原理,而且要將生硬的基礎數(shù)學原理通過客觀世界有理有據(jù)地引入進行講解。這本書應該就是一個高級智能體,將人工智能的奧秘娓娓道來!它將幫助讀者克服學習人工智能的障礙,讓復雜的理論變得易于消化,讓抽象的概念變得具體可感。

    親愛的讀者,無論你是人工智能領域的新人,抑或是有一定經(jīng)驗的研究者,我都由衷地希望本書能成為你探索人工智能世界的得力助手。在這本《爐邊夜話—深入淺出話AI》中,我將與你分享一段奇妙的旅程,一段探索機器學習、深度學習、強化學習以及大模型人工智能交織而成的智慧宇宙之旅。這些領域雖看似龐雜且深奧,但它們的技術(shù)根基可以回溯到統(tǒng)計概率論、線性代數(shù)、微積分、最優(yōu)化理論等學科。正是這些基石支撐起了人工智能算法的框架,賦予了各種神經(jīng)網(wǎng)絡智能能力。在探索的過程中或許你會遇到困難,但請記住每一次挑戰(zhàn)都是成長的機會。

    下面詳細介紹本書的內(nèi)容脈絡。

    人類的智能是如何形成的?從RNA和蛋白質(zhì)開始,單細胞逐步到多細胞后才慢慢進化并匯聚成脊髓,最后才發(fā)展出了大腦。人腦不斷進化變成非常復雜的“三磅宇宙”,這個小宇宙中的秘密至今人類都無法完全解開。但我們已經(jīng)知道它的基礎組成結(jié)構(gòu)就是神經(jīng)網(wǎng)絡結(jié)構(gòu),數(shù)百上千億的神經(jīng)元通過互相連接而產(chǎn)生超級大腦。人類沒有停止過對大腦的模擬,因此很久以前就提出了“人工智能”的概念,它要完成的任務是創(chuàng)造出人一樣的智能,現(xiàn)如今人工智能已經(jīng)發(fā)展成一門炙手可熱的學科。然而要實現(xiàn)人工智能就離不開計算機,而計算機的理論基礎則是圖靈機,研究人工智能就必須了解計算機的工作原理。計算機的微觀世界就是成群的邏輯電路,它們能夠執(zhí)行現(xiàn)實世界復雜的模型運算。我們要將現(xiàn)實世界裝進計算機就需要一些建模方法,通常基于數(shù)學進行建模。在明確規(guī)則的情況下我們可以直接用數(shù)學描述,而當規(guī)則無法確定時則通過數(shù)據(jù)驅(qū)動數(shù)學模型來解決。我們身處于一個異常復雜的世界,很多事情都是不確定的,此時就要通過概率思維來解決。我們的世界很多現(xiàn)象也符合一定的概率分布,比如正態(tài)分布、均勻分布和伯努利分布等。

    我們再回到人工智能的核心問題,基于數(shù)學對智能建模后實際上最終都還是要回歸到尋找最優(yōu)解的問題上,所以可以說人工智能本質(zhì)上就是一個最優(yōu)化過程。那么要怎么才能找到最優(yōu)解呢?此時就要分無約束和有約束兩種情況進行分析。無約束的情況下我們采取萬能的梯度下降法來尋找最優(yōu)解,從傾斜度概念開始逐步引出曲面斜率,接著引申到導函數(shù)及梯度等概念,最終推導出為什么梯度下降法能往最優(yōu)解方向移動。從最簡單的一維到二維,再到三維以上的多維空間。在有約束的情況下我們通常采用拉格朗日函數(shù)來進行求解,此外本書詳細講解了數(shù)學家是如何推導出拉格朗日函數(shù)的。

    人工智能模型的輸入是一個向量,那么就涉及對現(xiàn)實世界的向量化。實際上我們能通過向量來抽象萬物,包括時序型數(shù)據(jù)、文本數(shù)據(jù)、圖片數(shù)據(jù)、聲音數(shù)據(jù)、視頻數(shù)據(jù)等。有了輸入后就需要機器學習算法來對接這些輸入,機器學習包括了監(jiān)督學習、無監(jiān)督學習和強化學習三大類。監(jiān)督學習能夠?qū)崿F(xiàn)對事物的分類,包括常見的樸素貝葉斯、K近鄰、決策樹、邏輯回歸和支持向量機。此外監(jiān)督學習也能夠?qū)崿F(xiàn)對關系的捕捉,包括線性回歸、多項式回歸、支持向量回歸和決策樹回歸。無監(jiān)督學習則能實現(xiàn)聚類、降維、關聯(lián)規(guī)則、異常檢測等功能,無監(jiān)督學習就像是無師自通一樣。強化學習是通過與環(huán)境交互而不斷根據(jù)反饋信息作調(diào)整的一種學習,就像是自己學會某個能力一樣。

    然而,深度學習才是本輪大模型AI浪潮的推動者。深度學習充分向我們展示了“暴力美學”,真正做到了“大力出奇跡”的效果。深度學習其實就是多層的神經(jīng)網(wǎng)絡,那么就要回歸到神經(jīng)網(wǎng)絡算法上。神經(jīng)網(wǎng)絡其實就是當前最成功的大腦模擬方式,從最早的感知機模型發(fā)展到多層感知機,在引入梯度下降后不斷擴展成更深更寬的神經(jīng)網(wǎng)絡結(jié)構(gòu),最終成就了深度學習。深度學習主要的網(wǎng)絡結(jié)構(gòu)包括卷積神經(jīng)網(wǎng)絡、循環(huán)神經(jīng)網(wǎng)絡和變換器神經(jīng)網(wǎng)絡,其中卷積神經(jīng)網(wǎng)絡主要用于處理圖像,循環(huán)神經(jīng)網(wǎng)絡用于處理序列數(shù)據(jù),而變換器神經(jīng)網(wǎng)絡則是大模型的基礎。

    人類語言異常復雜,機器學習為了處理人類語言而建立了自然語言處理學科分支。為了讓機器看見又建立了計算機視覺學科分支,實際就是對圖像進行處理和識別,圖像就是一連串的像素。

    再來看看大模型的絕對主角—ChatGPT。它是AI浪潮的引領者,后來又不斷冒出類似ChatGPT的對話模型,統(tǒng)稱為大語言模型。大語言模型具備獨有的涌現(xiàn)能力,它通過大的模型、大的參數(shù)和大的算力來實現(xiàn)一個能力超強的大語言模型能力。然而大道至簡,看似復雜的大語言模型卻是一個簡單的“單字接龍”游戲。當然如果要從工程上實現(xiàn)大語言模型則要通過“預訓練+微調(diào)”的方式,再加上人類反饋強化學習,這些我們都在書中深入淺出地進行了講解。除了大語言模型外,還有一類大模型能生成畫家級別的圖像,而這僅僅只需我們用言語描述清楚要生成的圖畫內(nèi)容即可。機器繪畫師的實現(xiàn)原理包括自動編碼器、變分自動編碼器、生成對抗網(wǎng)絡、擴散模型、穩(wěn)定擴散模型等。

    只要緊跟書中的步伐就一定能參透大模型的奧秘。

    第1章 生命與智能 ◆1
    1.1 生命的起源 2
    1.2 人類智能的出現(xiàn) 3
    1.3 人腦的結(jié)構(gòu) 5
    第2章 人工智能學科 ◆9
    2.1 何為智能 9
    2.2 何為人工智能 10
    2.3 弱/強人工智能 11
    2.4 人工智能發(fā)展史 12
    2.5 三大學派 20
    第3章 圖靈機與計算機 ◆23
    3.1 圖靈機 24
    3.2 計算機 30
    第4章 現(xiàn)實世界的模型 ◆47
    4.1 概念、理論與模型 47
    4.2 數(shù)學模型理論 50
    4.3 對現(xiàn)實世界建模 55
    4.4 模型與算法 60
    第5章 不確定世界的模型 ◆62
    5.1 復雜的世界 62
    5.2 不確定性是常態(tài) 63
    5.3 以概率描述隨機 65
    5.4 概率思維 67
    5.5 貝葉斯定理 69
    5.6 概率分布 72
    第6章 如何尋找復雜模型的最優(yōu)解 ◆81
    6.1 什么是最優(yōu)解 81
    6.2 人工智能與最優(yōu)化 82
    6.3 最優(yōu)化建模流程 84
    6.4 模型三要素 85
    6.5 無約束的最優(yōu)化 86
    6.6 有約束的最優(yōu)化 98
    第7章 向量與矩陣抽象萬物 ◆105
    7.1 現(xiàn)實世界的數(shù)字化 105
    7.2 空間與向量 109
    7.3 向量抽象萬物 111
    7.4 矩陣與張量 118
    第8章 機器學習 ◆120
    8.1 機器學習是什么 120
    8.2 機器學習與人工智能 121
    8.3 機器學習的本質(zhì) 123
    第9章 機器學習如何辨別事物 ◆135
    9.1 二分類與多分類 135
    9.2 分類的實現(xiàn)方式 136
    9.3 機器學習分類算法 138
    第10章 機器學習如何捕捉關系 ◆149
    10.1 自然規(guī)律的發(fā)現(xiàn) 149
    10.2 機器學習中的變量關系 151
    10.3 回歸的原理 152
    10.4 欠擬合與過擬合 156
    10.5 常用的回歸算法 158
    第11章 機器學習如何無師自通 ◆161
    11.1 無監(jiān)督學習 161
    11.2 無監(jiān)督學習類型 162
    11.3 聚類 163
    11.4 降維 167
    11.5 關聯(lián)規(guī)則 168
    11.6 異常檢測 171
    11.7 監(jiān)督學習與無監(jiān)督學習 172
    第12章 機器學習如何自己學會玩游戲 ◆173
    12.1 人類與環(huán)境的交互 173
    12.2 強化學習 174
    12.3 馬爾可夫決策過程 177
    12.4 Q學習訓練過程 179
    12.5 Q學習玩游戲例子 182
    第13章 神經(jīng)網(wǎng)絡及其學習機制 ◆187
    13.1 模擬大腦 188
    13.2 感知機模型 189
    13.3 引入梯度下降 191
    13.4 多層感知機 193
    13.5 神經(jīng)網(wǎng)絡的訓練 194
    13.6 激活函數(shù) 202
    第14章 深度學習“大力出奇跡” ◆206
    14.1 什么是深度學習 207
    14.2 自動特征提取 208
    14.3 卷積神經(jīng)網(wǎng)絡 209
    14.4 循環(huán)神經(jīng)網(wǎng)絡 227
    14.5 變換器神經(jīng)網(wǎng)絡 232
    第15章 機器如何理解人類的語言 ◆245
    15.1 人類語言復雜性 246
    15.2 語言如何建模 247
    15.3 詞向量 249
    15.4 讓機器具有理解能力 253
    15.5 自然語言處理 256
    15.6 NLP為什么難 258
    第16章 機器如何看見世界 ◆261
    16.1 計算機視覺 261
    16.2 一切皆像素 266
    16.3 學習識別圖像 268
    16.4 缺乏概念與知識 269
    第17章 ChatGPT是如何工作的 271
    17.1 ChatGPT介紹 271
    17.2 大語言模型 273
    17.3 語言模型的發(fā)展 275
    17.4 大語言模型的使用 276
    17.5 涌現(xiàn)能力 279
    17.6 核心網(wǎng)絡架構(gòu) 280
    17.7 大語言模型的“大” 282
    17.8 海量語料庫 283
    17.9 “單字接龍”游戲 284
    17.10 預訓練+微調(diào) 286
    17.11 人類反饋強化學習 287
    17.12 從GPT-1到GPT-4 290
    第18章 如何讓機器成為繪畫師 ◆292
    18.1 自動編碼器 293
    18.2 變分自動編碼器 294
    18.3 生成對抗網(wǎng)絡 297
    18.4 擴散模型 300
    18.5 語言圖像關系模型 303
    18.6 穩(wěn)定擴散模型 307





最新評論共有 0 位網(wǎng)友發(fā)表了評論
發(fā)表評論
評論內(nèi)容:不能超過250字,需審核,請自覺遵守互聯(lián)網(wǎng)相關政策法規(guī)。
用戶名: 密碼:
匿名?
注冊
济源市| 会昌县| 潼关县| 龙里县| 铁力市| 沾益县| 柳州市| 周宁县| 万盛区| 平凉市| 永康市| 蛟河市| 吉水县| 景洪市| 内黄县| 安庆市| 定日县| 黎川县| 尉犁县| 德清县| 安岳县| 鹰潭市| 华蓥市| 黑河市| 宾阳县| 盐津县| 铜山县| 丽江市| 玉门市| 新绛县| 四平市| 巢湖市| 新宁县| 琼结县| 孝义市| 沂水县| 精河县| 特克斯县| 宁都县| 宁安市| 汪清县|