活动介绍

zstd 编译报错 error while loading shared libraries: libgmp.so.3: cannot open shared object file: No such file or directory

时间: 2024-10-27 16:01:10 浏览: 121
当在编译Zstandard (zstd) 时遇到 `error while loading shared libraries: libgmp.so.3: cannot open shared object file: No such file or directory` 这样的错误,这表示编译过程试图加载名为 `libgmp.so.3` 的动态链接库(shared library),但找不到它。这通常是因为缺少gmp (GNU Multiple Precision Arithmetic Library) 库。 解决这个问题的步骤如下: 1. **检查库存在**: 首先,确认系统上是否安装了gmp库及其对应的版本 (`libgmp.so.3`). 在终端运行: ``` locate libgmp.so.3 ``` 如果返回的结果为空,说明库不存在或者路径不在搜索路径里。 2. **安装gmp**: 对于大多数Linux系统,你可以使用包管理器来安装: - Debian/Ubuntu: `sudo apt-get install libgmp-dev` -S mingw-w64-x86_64-gmp` 3. **重新配置编译**: 解决gmp缺失的问题后,回到Zstd的源码目录,执行重新配置: ``` cd /path/to/zstd/build rm -f CMakeCache.txt cmake .. (如果之前有配置过,请加上 -DCMAKE_BUILD_TYPE=RelWithDebInfo 或其他你所需的编译模式) ``` 4. **重新编译**: 清理旧的构建文件,然后重新编译: ``` make clean make -j $(nproc) ``` 5. **再次尝试安装**: 如果上述步骤都完成,再尝试安装: ``` sudo make install ``` 现在,你应该能够成功编译Zstd而不会遇到关于libgmp.so.3的错误。
阅读全文

相关推荐

意外实参可能的被调用方:read_csv(filepath_or_buffer: str | PathLike[str] | ReadCsvBuffer[bytes] | ReadCsvBuffer[str], *, sep: str | None | _NoDefault = ..., delimiter: str | None | _NoDefault = ..., header: int | Sequence[int] | None | Literal["infer"] = ..., names: Sequence[Hashable] | None | _NoDefault = ..., index_col: Hashable | Sequence[Hashable] | Literal[False] | None = ..., usecols: SequenceNotStr[Hashable] | range | ExtensionArray | ndarray | Index | Series | (HashableT) -> bool | None = ..., dtype: ExtensionDtype | str | dtype | Type[str] | Type[complex] | Type[bool] | Type[object] | dict[Hashable, ExtensionDtype | str | dtype | Type[str] | Type[complex] | Type[bool] | Type[object]] | None = ..., engine: Literal["c", "python", "pyarrow", "python-fwf"] | None = ..., converters: Mapping[Hashable, (...) -> Any] | None = ..., true_values: list | None = ..., false_values: list | None = ..., skipinitialspace: bool = ..., skiprows: list[int] | int | (Hashable) -> bool | None = ..., skipfooter: int = ..., nrows: int | None = ..., na_values: Hashable = ..., na_filter: bool = ..., verbose: bool | _NoDefault = ..., skip_blank_lines: bool = ..., parse_dates: bool | Sequence[Hashable] | None = ..., infer_datetime_format: bool | _NoDefault = ..., keep_date_col: bool | _NoDefault = ..., date_parser: (...) -> Any | _NoDefault = ..., date_format: str | dict[Hashable, str] | None = ..., dayfirst: bool = ..., cache_dates: bool = ..., iterator: Literal[True], chunksize: int | None = ..., compression: Literal["infer", "gzip", "bz2", "zip", "xz", "zstd", "tar"] | dict[str, Any] | None = ..., thousands: str | None = ..., decimal: str = ..., lineterminator: str | None = ..., quotechar: str = ..., quoting: int = ..., doublequote: bool = ..., escapechar: str | None = ..., comment: str | None = ..., encoding: str | None = ..., encoding_errors: str | None = ..., dialect: str | Dialect | Dialect | None = ..., on_bad_lines=..., delim_whitespace: bool | _NoDefault = ..., low_memory: bool = ..., mem

import requests import re import time import os import urllib.parse import threading import random class pa(object): def __init__(self, internet_url): self.internet = internet_url # 网页url self.m3u8_url = None self.is_unicode = None self.sub_m3u8_url = None self.sub_m3u8_data = None self.ts_files = None self.base_url = None self.full_ts_url_list = None self.internet_date = None self.total_num = None self.title = None self.progress_file = None self.output_file = None self.vod_name = None self.mp4_exist = None self.threading_num = None self.vod_part = None self.variables = None self.lock = threading.Lock() self.skip_url = 0 self.headers = { "user-agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/138.0.0.0 Safari/537.36 Edg/138.0.0.0", "referer": "https://www.bnjxjd.com/", "accept-encoding": "gzip, deflate, br, zstd" } def m3u8_fragment_acquisition(self): # m3u8链接获取 # 得到整个前端网页的源代码 self.internet_date = requests.get(url=self.internet, headers=self.headers, timeout=20).text # 得到m3u8的url # https://vvip.high26-playback.com/20250622/11867_51a60f84/index.m3u8 # 不需要转义 # https://p.bvvvvvvv7f.com/video/mingbuxuchuan/%E7%AC%AC01%E9%9B%86/index.m3u8 需转义的特殊情况 self.m3u8_url = re.findall(r'"url":"(.*?\.m3u8)"', self.internet_date)[0].replace("\\/", "/") print(f"访问:{self.m3u8_url}") # 判断是否是unicode编码 self.if_unicode() # 转义成功,需转义的为self.is_unicode = True def if_unicode(self): # 判断是哪种转义字符 ifunicode = "/\\" # 两个\\表示一个\,避免与转义符冲突 if ifunicode in self.m3u8_url: print(f"字符串存在/\\,这是一个unicode编码") self.is_unicode = True pattern = r'\\u[0-9a-fA-F]{4}\d*\\u[0-9a-fA-F]{4}' # 精确匹配Unicode序列+数字+Unicode序列 match = re.search(pattern, self.m3u8_url) # 提取出来 if match: extracted = match.group() # 获取正则表达式匹配到的完整字符串 # 先解码为实际字符 decoded_str = extracted.encode('utf-8').decode('unicode-escape') # "第01集" # 然后进行URL编码 url_encoded = urllib.parse.quote(decoded_str) print(url_encoded) #将员Unicode编码改变为url编码 self.m3u8_url = self.m3u8_url.replace(extracted, url_encoded) print(self.m3u8_url) # https://p.bvvvvvvv7f.com/video/mingbuxuchuan/%E7%AC%AC01%E9%9B%86/index.m3u8 else: print("这不是一个unicode编码") self.is_unicode = False def ts_fragment_acquisition(self): # 获取ts片段 if self.is_unicode: self.sub_m3u8_url = self.m3u8_url self.sub_m3u8_data = requests.get(url=self.sub_m3u8_url, headers=self.headers, timeout=10).text # 转义特殊情况 self.ts_files = re.findall(",\n(.*?)\n#", self.sub_m3u8_data) self.base_url = self.m3u8_url.replace("/index.m3u8", "/") pass elif not self.is_unicode: self.sub_m3u8_url = self.m3u8_url.replace("index", "2000k/hls/mixed") # https://vvip.high26-playback.com/20250622/11867_51a60f84/2000k/hls/mixed.m3u8 self.sub_m3u8_data = requests.get(self.sub_m3u8_url, headers=self.headers, timeout=20).text ##EXTINF:6.006000,b4f5acfb26e6c5267b59f2b7f0ae2c17.ts self.ts_files = re.findall(",\n(.*?)\n#", self.sub_m3u8_data) self.base_url = self.m3u8_url.replace("/index.m3u8", "/2000k/hls/") else: print(f"self.is_unicode发生未知错误,{self.is_unicode}") def ts_fragment_processing(self): # 处理ts片段 # base_url加ts片段,获得一个完整的ts_url列表 self.full_ts_url_list = [self.base_url + ts for ts in self.ts_files] def some_data_processing(self): # 一些数据处理 # 获得总共的ts片数 self.total_num = len(self.full_ts_url_list) # 对获取下载内容名称 self.vod_name = re.findall("vod_name='(.*?)',", self.internet_date) self.vod_part = re.findall("vod_part='(.*?)';", self.internet_date) self.title = self.vod_name[0] + "--" + self.vod_part[0] def poweroff_download(self): # 断点准备 start_idx = 0 self.progress_file = f"video/{self.vod_name[0]}/{self.title}进度记录本.txt" # 进度文件名字 self.output_file = f"video/{self.vod_name[0]}/{self.title}.mp4.tmp" # 影视临时文件 if os.path.exists(self.progress_file): # 读取start_idx进度 start_idx = int(open(self.progress_file, 'r').read()) # 检查文件夹 self.check_create_a_separate_folder() # 检查mp4文件 self.check_mp4() if self.mp4_exist is True: return # 下载 for idx in range(start_idx, self.total_num): ts = self.full_ts_url_list[idx] for retry in range(10): # 最大重试10次 try: ts_content = requests.get(url=ts, headers=self.headers, timeout=20) ts_content.raise_for_status() # 检查网页是否进入,没进入会报错 with open(self.output_file, 'ab') as f: for chunk in ts_content.iter_content(chunk_size=1024): if chunk: f.write(chunk) print(f"下载{self.title}中... 进度: {idx + 1}/{self.total_num}") with open(self.progress_file, 'w') as pf: pf.write(str(idx + 1)) # 更新进度 time.sleep(0.5) break except Exception as e: print(f"分片{idx + 1},第{retry + 1}次失败,失败原因: {e}") try: m = "404 Client Error: Not Found for url" if m in str(e): not_found_url = re.findall("404 Client Error: Not Found for url:(.*?)", str(e)) print(f"没有找到这个url链接,跳过{not_found_url}") break except: pass if retry == 9: raise Exception("已经失败10次了,请稍后再尝试吧") # 或记录到日志后退出 print(e) time.sleep(2) change_the_file() def change_the_file(self): # 下载结束,更改临时文件为mp4文件 try: if os.path.exists(self.output_file): os.rename(self.output_file, f"video/{self.vod_name[0]}/{self.title}.mp4") os.remove(self.progress_file) print("文件重命名成功!") except Exception as e: print(f"文件操作失败: {e}") def batch_download(self, start, final): # 批量下载 # self.internet = "https://www.bnjxjd.com/play/87953-1-1.html" for i in range(start, final + 1): match = re.findall(r'-(\d+)\.html', self.internet)[0] # 返回1222 self.internet = self.internet.replace(f"{match}", f"{i}") print(f"访问:{self.internet}") self.start() def check_create_a_separate_folder(self): # 创建一个单独存放同一名字的影视的文件夹 video_dir = "./video" # 当前目录下的video文件夹 full_path = os.path.join(video_dir, self.vod_name[0]) # 文件夹路径 try: if not os.path.exists(full_path): os.makedirs(full_path) # print(f"已创建文件夹: {self.vod_name[0]}") # print(f"下载位置:{full_path}") else: # print(f"下载位置:{full_path}") pass except Exception as e: print(f"创建文件夹失败: {e}") def check_create_a_separate_folder_vod_part(self): # 创建一个单独存放同一名字的影视的剧集的临时文件文件夹 video_dir = "./video" # 当前目录下的video文件夹 full_path = os.path.join(video_dir, self.vod_name[0], self.vod_part[0]) # 文件夹路径 try: if not os.path.exists(full_path): os.makedirs(full_path) # print(f"已创建文件夹: {self.vod_part[0]}") # print(f"下载位置:{full_path}") else: pass # print(f"下载位置:{full_path}") except Exception as e: print(f"创建文件夹失败: {e}") def check_mp4(self): video_dir = "./video" # 当前目录下的video文件夹 full_path = os.path.join(video_dir, self.vod_name[0], f"{self.title}.mp4") # 文件夹路径 if os.path.exists(full_path): print(f"已存在文件{video_dir}/{self.vod_name[0]}{self.title}.mp4") print("跳过此任务") self.mp4_exist = True else: self.mp4_exist = False def ts_distribution_list(self): # 分布ts列表 self.threading_num = 4 # 生成n个空列表 self.variables = [[] for _ in range(self.threading_num)] # [[], [], [], []] # 均匀分配元素到子列表 for i, url in enumerate(self.full_ts_url_list): index = i % self.threading_num # 使用索引对n取模,得到0~3的索引 self.variables[index].append(url) # 输出每个子列表的长度 for i, lst in enumerate(self.variables): print(f"子列表 {i + 1} 的长度: {len(lst)}") # 现在有一个大列表,里面4个小列表,每个列表里面存储着ts def ts_distribution_list_download(self, index): # index代表第几个线程 # 断点准备 start_idx = 0 # 是子列表索引的记录 progress_file = f"video/{self.vod_name[0]}/{self.vod_part[0]}/第{index}线程进度记录本.txt" # video文件夹/剧名/剧集临时文件夹后续要删除 if os.path.exists(progress_file): # 如果文件夹存在则,读取start_idx进度 start_idx = int(open(progress_file, 'r').read()) # 检查文件夹 self.check_create_a_separate_folder() # 检查是否存在剧名的文件夹 self.check_create_a_separate_folder_vod_part() # 检查是否存在剧名下的剧集的临时文件夹 # 检查mp4文件,存在则跳过 self.check_mp4() if self.mp4_exist is True: return # 下载 for idx in range(start_idx, len(self.variables[index])): # 开始的索引0到子列表总长度 ts = self.variables[index][idx] # 第index个线程的idx索引 data1 = self.variables[index][idx] var = self.full_ts_url_list.index(data1) # var在不分大小列表前的索引 self.output_file = f"video/{self.vod_name[0]}/{self.vod_part[0]}/{var}.mp4.tmp" # 影视临时文件 for retry in range(10): # 最大重试10次 try: ts_content = requests.get(url=ts, headers=self.headers, timeout=20) ts_content.raise_for_status() # 检查网页是否进入,没进入会报错 with self.lock: with open(self.output_file, 'ab') as f: for chunk in ts_content.iter_content(chunk_size=1024): if chunk: f.write(chunk) print(f"下载{self.title}中... 第{index+1}线程进度: {idx + 1}/{len(self.variables[index])}") with open(progress_file, 'w') as pf: pf.write(str(idx + 1)) # 更新进度 time.sleep(0.5) break except Exception as e: print(f"第{index}线程分片{idx + 1},第{retry + 1}次失败,失败原因: {e}") try: if "404" in str(e): not_found_url = re.findall(r"404 Client Error: Not Found for url:(.*?)", str(e)) print(f"没有找到这个url链接,跳过{not_found_url}") with self.lock: skip_url += 1 print(f"线程{index}跳过了{skip_url}次url") break except: pass if retry == 9: raise Exception("已经失败10次了,请稍后再尝试吧") # 或记录到日志后退出 time.sleep(random.uniform(0.1, 0.5)) print(len(self.full_ts_url_list)) # change_the_file() time.sleep(random.uniform(0.1, 0.5)) def thread_management(self): # 启动4个线程 threads = [] for i in range(4): thread = threading.Thread(target=self.ts_distribution_list_download, args=(i,)) threads.append(thread) thread.start() # 等待所有线程完成 for thread in threads: thread.join() pass def start(self): self.m3u8_fragment_acquisition() self.ts_fragment_acquisition() self.ts_fragment_processing() self.some_data_processing() self.poweroff_download() self.change_the_file() def thread_start(self): self.m3u8_fragment_acquisition() self.ts_fragment_acquisition() self.ts_fragment_processing() self.some_data_processing() self.ts_distribution_list() self.thread_management() pass if __name__ == '__main__': ppp = pa("https://www.bnjxjd.com/play/87953-1-3.html") ppp.thread_start() 多线程下载有大量的文件缺失

最新推荐

recommend-type

SQUASHFS error问题解决

本文主要探讨如何解决 "SQUASHFS error: sb_bread failed reading block" 这一常见问题。 SQUASHFS 是一个轻量级、高压缩率的文件系统,常用于嵌入式设备,因其高效的空间利用率而受到青睐。当遇到 "sb_bread ...
recommend-type

freude弗莱德FP-12A电脑DSP调音软件下载

freude弗莱德FP-12A电脑DSP调音软件下载
recommend-type

网络设备技术指标.docx

网络设备技术指标.docx
recommend-type

软件规范知识培训(1).ppt

软件规范知识培训(1).ppt
recommend-type

VC图像编程全面资料及程序汇总

【标题】:"精通VC图像编程资料全览" 【知识点】: VC即Visual C++,是微软公司推出的一个集成开发环境(IDE),专门用于C++语言的开发。VC图像编程涉及到如何在VC++开发环境中处理和操作图像。在VC图像编程中,开发者通常会使用到Windows API中的GDI(图形设备接口)或GDI+来进行图形绘制,以及DirectX中的Direct2D或DirectDraw进行更高级的图形处理。 1. GDI(图形设备接口): - GDI是Windows操作系统提供的一套应用程序接口,它允许应用程序通过设备无关的方式绘制图形。 - 在VC图像编程中,主要使用CDC类(设备上下文类)来调用GDI函数进行绘制,比如绘制线条、填充颜色、显示文本等。 - CDC类提供了很多函数,比如`MoveTo`、`LineTo`、`Rectangle`、`Ellipse`、`Polygon`等,用于绘制基本的图形。 - 对于图像处理,可以使用`StretchBlt`、`BitBlt`、`TransparentBlt`等函数进行图像的位块传输。 2. GDI+: - GDI+是GDI的后继技术,提供了更丰富的图形处理功能。 - GDI+通过使用`Graphics`类来提供图像的绘制、文本的渲染、图像的处理和颜色管理等功能。 - GDI+引入了对矢量图形、渐变色、复杂的文本格式和坐标空间等更高级的图形处理功能。 - `Image`类是GDI+中用于图像操作的基础类,通过它可以进行图像的加载、保存、旋转、缩放等操作。 3. DirectX: - DirectX是微软推出的一系列API集合,用于在Windows平台上进行高性能多媒体编程。 - DirectX中的Direct2D是用于硬件加速的二维图形API,专门用于UI元素和简单的图形渲染。 - DirectDraw主要用于硬件加速的位图操作,比如全屏游戏开发中的画面渲染。 4. 位图操作: - 在VC图像编程中,位图操作是一个重要的部分。需要了解如何加载、保存和处理位图(BMP)文件。 - 可以使用位图文件格式的解析,来访问位图的像素数据,进行像素级别的图像处理和修改。 5. 高级图像处理技术: - 包括图像滤镜、图像转换、图像压缩和解压缩技术。 - 需要掌握一些图像处理算法,比如卷积、FFT(快速傅里叶变换)、DCT(离散余弦变换)等。 - 了解图像的色彩空间转换,比如RGB到YUV的转换,这在视频处理中非常重要。 6. 图像库的使用: - 除了直接使用API进行图像处理之外,还可以使用开源的图像处理库,如OpenCV。 - OpenCV是一个跨平台的计算机视觉和机器学习软件库,它提供了很多高级的图像处理功能。 【压缩包子文件的文件名称列表】: VC++ 文件名称列表显示为"VC++",这表明文件包中可能包含了Visual C++的项目、源代码文件、动态链接库(DLLs)、编译器设置、链接器设置等。如果要使用这些文件进行VC图像编程,需要确保Visual C++开发环境已经安装并且配置好,同时需要安装好所有依赖的库和工具。 要开始VC图像编程,开发者需要具备C++编程基础,熟悉Windows编程概念,并且对图形学有一定的了解。掌握VC图像编程技巧,对于进行桌面应用程序开发、图像处理软件开发以及游戏开发等都是至关重要的。
recommend-type

Pokemmo响应速度翻倍:多线程处理的高级技巧

# 摘要 多线程处理是提高软件并发性能和响应速度的关键技术,本文从基础概念与优势出发,深入探讨了多线程的实现机制,包括线程模型、调度算法、编程关键技术、线程安全性最佳实践、死锁预防与处理等方面。通
recommend-type

人名列表滚动抽奖

<think>嗯,用户想实现一个滚动抽奖功能,需要前端动画效果和随机选择逻辑。首先,我得考虑前端怎么实现滚动效果。可能用CSS动画或者JavaScript的requestAnimationFrame?比如,使用CSS的@keyframes来控制位移,或者用JS动态更新样式。然后,随机选择算法,可能需要确保公平性,比如用Fisher-Yates洗牌算法,或者用Math.random()来生成随机索引。然后,用户可能需要平滑的滚动动画,比如先快速滚动,然后逐渐减速,最后停在选中的人名上。这可能需要设置定时器,逐步改变位置,或者使用CSS过渡效果。另外,还要考虑性能,避免页面卡顿,可能需要使用硬件加
recommend-type

一站式JSF开发环境:即解压即用JAR包

标题:“jsf开发完整JAR包”所指的知识点: 1. JSF全称JavaServer Faces,是Java EE(现EE4J)规范之一,用于简化Java Web应用中基于组件的用户界面构建。JSF提供了一种模型-视图-控制器(MVC)架构的实现,使得开发者可以将业务逻辑与页面表示分离。 2. “开发完整包”意味着这个JAR包包含了JSF开发所需的所有类库和资源文件。通常来说,一个完整的JSF包会包含核心的JSF库,以及一些可选的扩展库,例如PrimeFaces、RichFaces等,这些扩展库提供了额外的用户界面组件。 3. 在一个项目中使用JSF,开发者无需单独添加每个必要的JAR文件到项目的构建路径中。因为打包成一个完整的JAR包后,所有这些依赖都被整合在一起,极大地方便了开发者的部署工作。 4. “解压之后就可以直接导入工程中使用”表明这个JAR包是一个可执行的归档文件,可能是一个EAR包或者一个可直接部署的Java应用包。解压后,开发者只需将其内容导入到他们的IDE(如Eclipse或IntelliJ IDEA)中,或者将其放置在Web应用服务器的正确目录下,就可以立即进行开发。 描述中所指的知识点: 1. “解压之后就可以直接导入工程中使用”说明这个JAR包是预先配置好的,它可能包含了所有必要的配置文件,例如web.xml、faces-config.xml等,这些文件是JSF项目运行所必需的。 2. 直接使用意味着减少了开发者配置环境和处理依赖的时间,有助于提高开发效率。 标签“jsf jar包”所指的知识点: 1. 标签指明了JAR包的内容是专门针对JSF框架的。因此,这个JAR包包含了JSF规范所定义的API以及可能包含的具体实现,比如Mojarra或MyFaces。 2. “jar包”是一种Java平台的归档文件格式,用于聚合多个文件到一个文件中。在JSF开发中,JAR文件经常被用来打包和分发库或应用程序。 文件名称列表“jsf”所指的知识点: 1. “jsf”文件名可能意味着这是JSF开发的核心库,它应该包含了所有核心的JavaServer Faces类文件以及资源文件。 2. 如果是使用特定版本的JSF,例如“jsf-2.2.jar”,则表明文件内包含了对应版本的JSF实现。这种情况下,开发者必须确认他们所使用的Web服务器或应用程序服务器支持该版本的JSF。 3. 文件名称也可能是“jsf-components.jar”、“jsf-impl.jar”等,表明这个JAR包是JSF的一个子模块或特定功能组件。例如,“jsf-components.jar”可能包含了一系列用于在JSF应用中使用的自定义组件。 4. 对于开发者而言,了解文件名称中所蕴含的信息非常重要,因为这将决定他们需要下载哪些JAR包来满足特定项目的需求。 综合以上信息,开发者在使用JSF进行Java Web应用开发时,会通过一个预先配置好的JAR包来快速地搭建和启动项目。这样做不仅简化了项目初始化的过程,也使得开发者能够更加聚焦于业务逻辑的实现和界面设计,而不必深究底层框架配置的细节。
recommend-type

Pokemmo内存优化揭秘:专家教你如何降低50%资源消耗

# 摘要 本文综述了Pokemmo游戏的内存优化方法,从内存管理基础出发,探讨内存使用效率的影响因素,并介绍了性能监控与分析工具。在内存优化实践技巧章节中,详细讨论了代码层面的优化、数据结构和算法选择对内存效率的影响,并通过案例分析展示了实际的优化过程。针对Pokemmo游戏特点,分析了内存消耗特性并提出了特定优化技术。最后,本文展望了未来内存管理技术的发展方向,以及游戏开发中面临的新挑战,为Pokemmo及类似游戏提供了优化建议。 # 关键字 内存优化;内存管理;性能监控;数据结构;算法效率;游戏开发 参考资源链接:[Pokemmo必备资源包:四种ROM与汉化补丁](https://we
recommend-type

直接访问子路由是吧

<think>我们正在使用Vue2,因此需要参考VueRouterv3的文档(因为Vue2对应VueRouterv3,Vue3对应VueRouterv4)。用户的问题是:如何配置路由以支持直接访问子路由?即,在Vue2中,我们希望直接通过URL访问嵌套的子路由(例如:/parent/child),而不仅仅是先访问父路由再导航到子路由。根据之前的回答和引用,我们已经知道:1.在父路由的配置中,使用`children`数组来定义子路由。2.子路由的`path`不能以斜杠开头(例如:'child'而不是'/child'),这样它就会基于父路由的路径进行拼接。3.在父组件的模板中放置`<router-