華為的鴻蒙系統開源之后第一個想看的模塊就是 FS 模塊,想了解一下它的 IO 路徑與 linux 的區別?,F在鴻蒙開源的倉庫中有兩個內核系統,一個是 liteos_a 系統,一個是 liteos_m 系統。兩者的區別主要是適應的場景不一樣,liteos_a 系統適用于硬件資源更加豐富的場景,比如 CPU 更強,內存更大;而 liteos_m 系統則適用于 IoT 設備,相對來說硬件資源比較弱一些。所以我們就拿 liteos_a 系統來分析一下它的 IO 棧吧,畢竟它應對的場景更加復雜一些。
鴻蒙系統 liteos_a Kernel 的下載地址在這:https://gitee.com/openharmony/kernel_liteos_a。
1.FS 源碼結構
下載內核源碼后發現 fs 目錄下似乎缺少很多東西。
當時覺得好奇怪,啥都沒有,那它的 shell 相關命令是怎么使用 fs 模塊進行讀寫的呢?于是發現鴻蒙的 FS 模塊主要是從 Nuttx (注:Nuttx 是 Apache 正在孵化的實時操作系統內核)那里借用了 FS 的相關實現。這是從內核的 fs.h 引用的路徑發現的,它引用的路徑內容如下:
../../../../../third_party/NuttX/include/nuttx/fs/fs.h
所以我們需要找到這個模塊,在 gitee 的倉庫中搜索 Nuttx 發現的確有這個倉庫,所以我們需要聯合兩個倉庫的代碼一起解讀 IO 棧的源碼。Nuttx 的倉庫地址為:https://gitee.com/openharmony/third_party_NuttX。
我們來看一下 Nuttx 的目錄結構:
可以發現 FS 的具體實現都在這個 Nuttx 倉庫內。接下來我們來看看鴻蒙系統的 IO 棧吧,因為 IO 棧的路徑比較多,所以我們選取塊設備(block device)的路徑來分析。
2. IO 整體架構
鴻蒙系統關于塊設備的 IO 棧路徑整體架構如下圖所示:
整體 IO 流程如下:
上層應用會在用戶態下調用 read / write 接口,這會觸發系統調用(syscall)進入內核態;
系統調用往下調用 VFS 的接口,如 read 則對應 read,write 對應 write;
VFS 這層會根據 fd 對應的 file 結構拿出超級塊的 inode,利用這個 inode 繼續往下調用具體 driver 的 read / write 接口;
在塊設備的場景下,它是利用字符設備的驅動作為它的代理,也就是 driver 下面的 bch。鴻蒙系統的設備驅動中并沒有塊設備的驅動,所以它做了一層 block_proxy,無論是字符設備還是塊設備的 IO 都會經過 bch 驅動。數據所位于的扇區以及偏移量(offset)計算位于這層;
IO 往下走會有一層緩存,叫 bcache。bcache 采用紅黑樹管理這些緩存的數據;
IO 再往下走就是塊設備的驅動,內核沒有通用的塊設備驅動實現,它應該是由不同的廠商來實現的。
3.鴻蒙 IO 流程源碼解讀
讀寫流程大致一樣,我們就看一下鴻蒙的讀數據流程吧。由于函數的源碼比較長,全貼出來也不太好,所以太長的源碼我只將關鍵的部分截出。
3.1 上層應用讀取數據
上層應用調用 read 接口,這個是系統的 POSIX 接口,read 接口原型如下:
#includessize_t read(int fd, void *buf, size_t count);
3.2 VFS
上層應用在用戶態調用 read 接口后會觸發系統調用,這個系統調用在 Kernel 的如下文件中進行注冊:
syscall/fs_syscall.c
對應的系統調用函數為
237 行的 read 調用的是 VFS 這層的 read,VFS 這層的 read 函數實現位于 Nuttx 項目的如下路徑:
fs/vfs/fs_read.c
read函數從 fd (文件描述符)中獲取對應的 file 對象指針,然后在調用 file_read 接口。file_read 也和 read 函數位于同一個文件下。它從 file 對象中獲取了超級塊的 inode 對象,然后使用這個 inode 調用 bch 驅動的 read 函數。
3.3 bch 驅動
bch 驅動是一個字符設備驅動,它被用來當做上層與塊設備驅動的中間層。注冊塊設備驅動時會調用 block_proxy 來做代理轉換,它的實現位于:
fs/driver/fs_blockproxy.c
當打開(open)一個塊設備時,內核會判斷 inode 是否是塊設備類型,如果是則調用 block_proxy 來做轉換處理。 當上層調用 u.i_ops->read 時,它對應的是 bch_read,它的實現位于:
drivers/bch/bchdev_driver.c
bch_read 會接著調用 bchlib_read,這個函數的實現位于:
drivers/bch/bchlib_read.c
它會根據偏移(offset)計算出在哪個扇區進行讀數據,如果要讀取的數據只是某個扇區的一部分,則它會先利用 bchlib_readsector 將這個扇區全部讀出來,然后再把對應的那部分數據拷貝到內存并返回。 bchlib_readsector 的實現位于如下位置:
drivers/bch/bchlib_cache.c
它會先將位于內存的臟數據下刷,等臟數據都下刷完成后才會利用 los_disk_read 把數據從磁盤上讀上來。 los_disk_read 的實現位于 kernel 的如下位置:
fs/vfs/disk/disk.c
這 los_disk_read 這層會有一層緩存,叫 bcache。它會把每次 IO 的扇區緩存到內存中,緩存的組織方式為紅黑樹。它是有大小限制的,不是無限增長,具體大小與內存大小有關。 los_disk_read 在讀數據之前會先從 bcache 緩存中查找有沒有對應的緩存扇區,如果有則直接將這個扇區返回,如果沒有則調用真正塊設備的 read 函數。這個 read 函數在內核中沒有對應的實現,所以它是跟隨每個塊設備的驅動的不同而不同。
整個讀數據流程源碼分析就到這里。
鴻蒙系統的 IO 棧分支比較多,這次的源碼解讀選用了塊設備的分支進行分析,希望可以幫助大家更好的理解鴻蒙系統。最后我還想做一下鴻蒙系統與 Linux 關于 IO 棧的對比。
4.鴻蒙 IO 棧與 Linux IO 棧的對比
如果有研究過 linux IO 棧的同學應該能體會到鴻蒙的 IO 棧是比較簡單。先來看一下 Linux 的 IO 棧整體架構圖:
所以,我們對比一下鴻蒙系統和 Linux IO 棧的主要區別吧:
鴻蒙沒有 pagecache。所以鴻蒙的系統調用加不加 O_SYNC 應該是一樣的,都是直接下到磁盤。
鴻蒙沒有通用塊層和 IO 調度層。在 Linux 中通用塊層是用來將連續的塊請求組成一個 bio 結構體,便于對接下層的調度管理。調度層的目的則是用來減少 IO 尋址時間,在這層也有多種調度算法可以選擇,如 cfq/deadline/noop 等。我覺得鴻蒙不是沒有這兩層,而是還沒有做,目前只是 IoT 的適用場景。等明年適用于手機的時候再看看,我覺得應該也會做相關的處理,只不過不一定與 Linux 的處理一樣。
鴻蒙的驅動層次不夠完整,需要用字符設備的驅動來代理塊設備的驅動,不知道這是基于什么考慮。
鴻蒙 bcache 的作用與 linux 的 pagecache 作用基本一致,只不過它們在 IO 棧上所在的位置不一樣。
編輯:hfy
-
Linux
+關注
關注
87文章
11320瀏覽量
209835 -
鴻蒙系統
+關注
關注
183文章
2636瀏覽量
66445 -
IO棧
+關注
關注
0文章
2瀏覽量
558
發布評論請先 登錄
相關推薦
評論