AI智能
改变未来

Linux虚拟文件系统VFS


一、为什么要有虚拟文件系统?

文件存储方式有很多种方式,对应的不同文件系统,例如ext3、NFS、XFS,也可能来自于硬盘SSD、HDD等不同存储介质,如果我们的服务要去调用文件的话,那么针对不同的文件系统要有不同的实现,为了降低这种复杂度,Linux在服务端与存储的文件系统之间加了一层抽象,为服务调用提供通用的文件操作和文件系统操作接口,屏蔽不同文件系统操作的差异,让服务端感受不到底层文件系统的区别。

通过VFS系统,Linux提供了通用的系统调用,可以跨越不同文件系统和介质之间执行,极大简化了用户访问不同文件系统的过程。另一方面,新的文件系统、新类型的存储介质,可以无须编译的情况下,动态加载到Linux中。

\”一切皆文件\”是Linux的基本哲学之一,不仅是普通的文件,包括目录、字符设备、块设备、套接字等,都可以以文件的方式被对待。实现这一行为的基础,正是Linux的虚拟文件系统机制。

二、虚拟文件系统原理

VFS之所以能够衔接各种各样的文件系统,是因为它抽象了一个通用的文件系统模型,定义了通用文件系统都支持的、概念上的接口。新的文件系统只要支持并实现这些接口,并注册到Linux内核中,即可安装和使用。

举个例子,比如Linux写一个文件:

int ret = write(fd, buf, len);

调用了

write()

系统调用,它的过程简要如下:

  • 首先,勾起VFS通用系统调用
    sys_write()

    处理。

  • 接着,
    sys_write()

    根据

    fd

    找到所在的文件系统提供的写操作函数,比如

    op_write()

  • 最后,调用
    op_write()

    实际的把数据写入到文件中。

操作示意图如下

三、虚拟文件系统组成部分

Linux为了实现这种VFS系统,采用面向对象的设计思路,主要抽象了四种对象类型:

  • 超级块对象: 代表一个已安装的文件系统。
  • 索引节点对象:代表具体的文件。
  • 目录项对象: 代表一个目录项,是文件路径的一个组成部分。
  • 文件对象: 代表进程打开的文件。

每个对象都包含一组操作方法,用于操作相应的文件系统。

注意

Linux将目录当做文件对象来处理,是另一种形式的文件,它里面包含了一个或多个目录项。而目录项是单独抽象的对象,主要包括文件名和索引节点号。因为目录是可以层层嵌套,以形成文件路径,而路径中的每一部分,其实就是目录项。

超级块

超级块用于管理挂载点对实际文件系统中的一些参数,包括:块长度,文件系统可处理的最大文件长度,文件系统类型,对应的存储设备等。在之前的整体结构图中superblock会有一个files指向所有打开的文件,但是在下面的数据结构中并没有找到相关的代码,是因为之前该结构会用于判断umount逻辑时,确保所有文件都已被关闭,新版的不知道怎么处理这个逻辑了,后续看到了再补上,相关superblock的管理主要在文件系统的挂载逻辑,这个后续在讲到挂载相关的模块是详细分析。而superblock主要功能是管理inode。

1044

超级块用于存储文件系统的元信息,元信息里面包含文件系统的基本属性信息,比如有:

  • 索引节点信息
  • 挂载的标志
  • 操作方法 s_op
  • 安装权限
  • 文件系统类型、大小、区块数

其中操作方法 s_op 对每个文件系统来说,是非常重要的,它指向该超级块的操作函数表,包含一系列操作方法的实现,这些方法有:

  • 分配inode
  • 销毁inode
  • 读、写inode
  • 文件同步

下面是super_block的代码:

struct super_block {struct list_head    s_list;     /* Keep this first */dev_t           s_dev;      /* search index; _not_ kdev_t */unsigned char       s_blocksize_bits; // 块字节unsigned long       s_blocksize; // log2(块字节)loff_t          s_maxbytes; /* Max file size */struct file_system_type *s_type; // 文件系统类型const struct super_operations   *s_op; // 超级块的操作const struct dquot_operations   *dq_op;const struct quotactl_ops   *s_qcop;const struct export_operations *s_export_op;unsigned long       s_flags;unsigned long       s_iflags;   /* internal SB_I_* flags */unsigned long       s_magic;struct dentry       *s_root; // 根目录项。所有的path lookup 都是从此开始struct rw_semaphore s_umount;int         s_count;atomic_t        s_active;#ifdef CONFIG_SECURITYvoid                    *s_security;#endifconst struct xattr_handler **s_xattr;#if IS_ENABLED(CONFIG_FS_ENCRYPTION)const struct fscrypt_operations *s_cop;#endifstruct hlist_bl_head    s_roots;    /* alternate root dentries for NFS */struct list_head    s_mounts;   /* list of mounts; _not_ for fs use */struct block_device *s_bdev;struct backing_dev_info *s_bdi;struct mtd_info     *s_mtd;struct hlist_node   s_instances;unsigned int        s_quota_types;  /* Bitmask of supported quota types */struct quota_info   s_dquot;    /* Diskquota specific options */struct sb_writers   s_writers;/** Keep s_fs_info, s_time_gran, s_fsnotify_mask, and* s_fsnotify_marks together for cache efficiency. They are frequently* accessed and rarely modified.*/void            *s_fs_info; /* Filesystem private info *//* Granularity of c/m/atime in ns (cannot be worse than a second) */u32         s_time_gran;#ifdef CONFIG_FSNOTIFY__u32           s_fsnotify_mask;struct fsnotify_mark_connector __rcu    *s_fsnotify_marks;#endifchar            s_id[32];   /* Informational name */uuid_t          s_uuid;     /* UUID */unsigned int        s_max_links;fmode_t         s_mode;/** The next field is for VFS *only*. No filesystems have any business* even looking at it. You had been warned.*/struct mutex s_vfs_rename_mutex;    /* Kludge *//** Filesystem subtype.  If non-empty the filesystem type field* in /proc/mounts will be \"type.subtype\"*/char *s_subtype;const struct dentry_operations *s_d_op; /* default d_op for dentries *//** Saved pool identifier for cleancache (-1 means none)*/int cleancache_poolid;struct shrinker s_shrink;   /* per-sb shrinker handle *//* Number of inodes with nlink == 0 but still referenced */atomic_long_t s_remove_count;/* Pending fsnotify inode refs */atomic_long_t s_fsnotify_inode_refs;/* Being remounted read-only */int s_readonly_remount;/* AIO completions deferred from interrupt context */struct workqueue_struct *s_dio_done_wq;struct hlist_head s_pins;/** Owning user namespace and default context in which to* interpret filesystem uids, gids, quotas, device nodes,* xattrs and security labels.*/struct user_namespace *s_user_ns;/** The list_lru structure is essentially just a pointer to a table* of per-node lru lists, each of which has its own spinl56cock.* There is no need to put them into separate cachelines.*/struct list_lru     s_dentry_lru; // 目录项缓存struct list_lru     s_inode_lru; // inode 缓存struct rcu_head     rcu;struct work_struct  destroy_work;struct mutex        s_sync_lock;    /* sync serialisation lock *//** Indicates how deep in a filesystem stack this SB is*/int s_stack_depth;/* s_inode_list_lock protects s_inodes */spinlock_t      s_inode_list_lock ____cacheline_aligned_in_smp;struct list_head    s_inodes;   /* all inodes */spinlock_t      s_inode_wblist_lock;struct list_head    s_inodes_wb;    /* writeback inodes */} __randomize_layout;struct super_operations {struct inode *(*alloc_inode)(struct super_block *sb); // 在当前sb创建inodevoid (*destroy_inode)(struct inode *); // 在当前sb删除inodevoid (*dirty_inode) (struct inode *, int flags); // 标记为脏inodeint (*write_inode) (struct inode *, struct writeback_control *wbc);// inode 写回int (*drop_inode) (struct inode *); // 同delete,不过inode的引用必须为0void (*evict_inode) (struct inode *);void (*put_super) (struct super_block *);  // 卸载sbint (*sync_fs)(struct super_block *sb, int wait);int (*freeze_super) (struct super_block *);int (*freeze_fs) (struct super_bload0ck *);int (*thaw_super) (struct super_block *);int (*unfreeze_fs) (struct super_block *);int (*statfs) (struct dentry *, struct kstatfs *); // 查询元信息int (*remount_fs) (struct super_block *, int *, char *); //重新挂载void (*umount_begin) (struct super_block *); // 主要用于NFS// 查询相关int (*show_options)(struct seq_file *, struct dentry *);int (*show_devname)(struct seq_file *, struct dentry *);int (*show_path)(struct seq_file *, struct dentry *);int (*show_stats)(struct seq_file *, struct dentry *);#ifdef CONFIG_QUOTAssize_t (*quota_read)(struct super_block *, int, char *, size_t, loff_t);ssize_t (*quota_write)(struct super_block *, int, const char *, size_t, loff_t);struct dquot **(*get_dquots)(struct inode *);#endifint (*bdev_try_to_free_page)(struct super_block*, struct page*, gfp_t);long (*nr_cached_objects)(struct super_block *,struct shrink_control *);long (*free_cached_objects)(struct super_block *,struct shrink_control *);};

当VFS需要对超级块进行操作时,首先要在超级块的操作方法 s_op 中,找到对应的操作方法后再执行。比如文件系统要写自己的超级块:

superblock->s_op->write_supper(sb);

创建文件系统时,其实就是往存储介质的特定位置,写入超级块信息;而卸载文件系统时,由VFS调用释放超级块。

Linux支持众多不同的文件系统,

file_system_type

结构体用于描述每种文件系统的功能和行为,包括:

  • 名称、类型等
  • 超级块对象链表

当向内核注册新的文件系统时,其实是将

file_system_type

对象实例化,然后加入到Linux的根文件系统的目录树结构上。

索引

索引节点对象包含Linux内核在操作文件、目录时,所需要的全部信息,这些信息由

inode

结构体来描述,定义在<linux/fs.h>中,主要包含:

  • 超级块相关信息
  • 目录相关信息
  • 文件大小、访问时间、权限相关信息
  • 引用计数

关于inode,可以参考我这篇博文:Linux文件系统之INode

一个索引节点

inode

代表文件系统中的一个文件,只有当文件被访问时,才在内存中创建索引节点。与超级块类似的是,索引节点对象也提供了许多操作接口,供VFS系统使用,这些接口包括:

  • create(): 创2b60建新的索引节点(创建新的文件)
  • link(): 创建硬链接
  • symlink(): 创建符号链接。
  • mkdir(): 创建新的目录。

我们常规的文件操作,都能在索引节点中找到相应的操作接口。

Inode结构源码:

struct inode {/* 全局的散列表 */struct hlist_node	i_hash;/* 根据inode的状态可能处理不同的链表中(inode_unused/inode_in_use/super_block->dirty) */struct list_head	i_list;/* super_block->s_inodes链表的节点 */struct list_head	i_sb_list;/* inode对应的dentry链表,可能多个dentry指向同一个文件 */struct list_head	i_dentry;/* inode编号 */unsigned long		i_ino;/* 访问该inode的进程数目 */atomic_t		i_count;/* inode的硬链接数 */unsigned int		i_nlink;uid_t			i_uid;gid_t			i_gid;/* inode表示设备文件时的设备号 */dev_t			i_rdev;u64			i_version;/* 文件的大小,以字节为单位 */loff_t			i_size;#ifdef __NEED_I_SIZE_ORDEREDseqcount_t		i_size_seqcount;#endif/* 最后访问时间 */struct timespec		i_atime;/* 最后修改inode数据的时间 */struct timespec		i_mtime;/* 最后修改inode自身的时间 */struct timespec		i_ctime;/* 以block为单位的inode的大小 */blkcnt_t		i_blocks;unsigned int		i_blkbits;unsigned short          i_bytes;/* 文件属性,低12位为文件访问权限,同chmod参数含义,其余位为文件类型,如普通文件、目录、socket、设备文件等 */umode_t			i_mode;spinlock_t		i_lock;	/* i_blocks, i_bytes, maybe i_size */struct mutex		i_mutex;struct rw_semaphore	i_alloc_sem;/* inode操作 */const struct inode_operations	*i_op;/* file操作 */const struct file_operations	*i_fop;/* inode所属的super_block */struct super_block	*i_sb;struct file_lock	*i_flock;/* inode的地址空间映射 */struct address_space	*i_mapping;struct address_space	i_data;#ifdef CONFIG_QUOTAstruct dquot		*i_dquot[MAXQUOTAS];#endifstruct list_head	i_devices; /* 若为设备文件的inode,则为设备的打开文件列表节点 */union {struct pipe_inode_info	*i_pipe;struct block_device	*i_bdev; /* 若为块设备的inode,则指向该设备实例 */struct cdev		*i_cdev; /* 若为字符设备的inode,则指向该设备实例 */};__u32			i_generation;#ifdef CONFIG_FSNOTIFY__u32			i_fsnotify_mask; /* all events this inode cares about */struct hlist_head	i_fsnotify_mark_entries; /* fsnotify mark entries */#endif#ifdef CONFIG_INOTIFYstruct list_head	inotify_watches; /* watches on this inode */struct mutex		inotify_mutex;	/* protects the watches list */#endifunsigned long		i_state;unsigned long		dirtied_when;	/* jiffies of first dirtying */unsigned int		i_flags; /* 文件打开标记,如noatime */atomic_t		i_writecount;#ifdef CONFIG_SECURITYvoid			*i_security;#endif#ifdef CONFIG_FS_POSIX_ACLstruct posix_acl	*i_acl;struct posix_acl	*i_default_acl;#endifvoid			*i_private; /* fs or device private pointer */};

目录项

前面提到VFS把目录当做文件对待,比如

/usr/bin/vim

usr

bin

vim

都是文件,不过

vim

是一个普通文件,

usr

bin

都是目录文件,都是由索引节点对象标识。

由于VFS会经常的执行目录相关的操作,比如切换到某个目录、路径名的查找等等,为了提高这个过程的效率,VFS引入了目录项的概念。一个路径的组成部分,不管是目录还是普通文件,都是一个目录项对象。

/

usr

bin

vim

都对应一个目录项对象。不过目录项对象没有对应的磁盘数据结构,是VFS在遍历路径的过程中,将它们逐个解析成目录项对象。

目录项由

dentry

结构体标识,定义在“中,主要包含:

  • 父目录项对象地址
  • 子目录项链表
  • 目录关联的索引节点对象
  • 目录项操作指针
  • 等等

目录项有三种状态:

  • 被使用:该目录项指向一个有效的索引节点,并有一个或多个使用者,不能被丢弃。
  • 未被使用:也对应一个有效的索引节点,但VFS还未使用,被保留在缓存中。如果要回收内存的话,可以撤销未使用的目录项。
  • 负状态:没有对应有效的索引节点,因为索引节点被删除了,或者路径不正确,但是目录项仍被保留了。

将整个文件系统的目录结构解析成目录项,是一件费力的工作,为了节省VFS操作目录项的成本,内核会将目录项缓存起来。

文件

文件对象是进程打开的文件在内存中的实例。Linux用户程序可以通过

open()

系统调用来打开一个文件,通过

close()

系统调用来关闭一个文件。由于多个进程可以同时打开和操作同一个文件,所以同一个文件,在内存中也存在多个对应的文件对象,但对应的索引节点和目录项是唯一的。

文件对象由

file

结构体表示,定义在“中,主要包含:

  • 文件操作方法
  • 文件对象的引用计数
  • 文件指针的偏移
  • 打开文件时的读写标识

类似于目录项,文件对象也没有实际的磁盘数据,只有当进程打开文件时,才会在内存中产生一个文件对象。

每个进程都有自己打开的一组文件,由

file_struct

结构体标识,该结构体由进程描述符中的

files

字段指向。主要包括:

  • fdt
  • fd_array[NR_OPEN_DEFAULT]
  • 引用计数

fd_array数组指针指向已打开的文件对象,如果打开的文件对象个数 > NR_OPEN_DEFAULT,内核会分配一个新数组,并将 fdt 指向该数组。

除此之外,内核还为所有打开文件维持一张文件表,包括:

  • 文件状态标志
  • 文件偏移量

四、虚拟文件系统实战

由此对于虚拟文件的基本架构有了一定的理解,但是如果想要对于虚拟文件有比较深刻的认识还是比较模糊的,那么我们来通过自己伪码来操作一下文件,以描述linux内核是如何来读写文件的,我们以写文件为例来过一下整个

流程

需求:从0开始向文件/testmount/testdir/testfile1.txt 中写入 hello world

基本过程其基本系统调用过程为:1.mkdir 2. creat 3. open 4. write
mkdir对应的函数调用的执行过程如下:

rootInode = sb->s_root->d_inode;
testDirDentry = dentry(\”testdir\”)
testDirInode = rootInode->i_op->mkdir(rootInode , testDirDentry, 777))

creat对应的函数调用的执行过程如下:

testFileDentry = dentry(\”testfile1.txt\”)
testFileInode = testDirInode->i_op->create(testDirInode, testFileDentry, 777 )

open 的系统调用的执行过程如下:

testFileInode->f_op->open(testFileInode, testfile)

write的系统调用的执行过程如下

testfile->f_op->write(file, \”hello world\”, len, 0)

具体流程

  1. 假设现在我们有一个快磁盘设备/dev/sda,我们将其格式化为EX2文件系统,具体怎么将块设备格式化这个我们再设备管理章节在描述。
  2. 我们将该磁盘挂载到/testmount 目录,这样内核就会通过挂载模块注册对应的superblock,具体如何挂载且听下回分解。
  3. 我们想要写文件/testmount/testdir/testfile1.txt文件,那么首先会要根据文件名完整路径查找对应的目录项,并在不存在的时候创建对应的inode文件。
    3.1 根据完整路径找到对应的挂载点的superblock,我们这里最精确的匹配sb是/testmount
    3.2 找到sb后,找到当前sb的root dentry,找到root dentry对应的inode,通过inode中的address_space从磁盘中读取信息,如果是目录则其中存储内容为所有子条目信息,从而构建完整的root dentry中的子条目;发现没有对应testdir的目录,这时候就会报目录不存在的错误;用户开始创建对应的目录,并将对应的信息写回inode对应的设备;同理也需要在/testdir目录下创建testfile1.txt文件并写回/testdir对应的inode设备。
  4. 找到inode之后,我们需要通过open系统调用打开对应的文件,进程通过files_struct中的next_fd申请分配一个文件描述符,然后调用inode->f_op->open(inode, file),生成一个file对象,并将inode中的address_space信息传到file中,然后将用户空间的fd关联到该file对象。
  5. 打开文件之后所有后续的读写操作都是通过该fd来进行,在内核层面就是通过对应的file数据结构操作文件,比如我们要写入hello world,那么就是通过调用file->f_op->write;
    其实file->f_op其实是讲对应的字节内容写入到address_space中对应的内存中,address_space再选择合适的时间写回磁盘,这就是我们常说的缓存系统,当然我们也可以通过fsync系统调用强制将数据同步回存储系统。在f_op的函数中都可以看到__user描述信息,说明数据是来自用户空间的内存地址,这些数据最终要写到内核缓存的address_space中的page内存中,这就是我们常说的内核拷贝,后来就出来了大家所熟知的零拷贝sendfile,直接在两个fd直接拷贝数据,操作的都是内核里面的page数据,不需要到用户地址空间走一遭。
赞(0) 打赏
未经允许不得转载:爱站程序员基地 » Linux虚拟文件系统VFS