群晖打造海报墙,动手为jellyfin刮削影视信息

有了群晖以后,利用Jellyfin将它打造成了影音中心,最让我看着舒服的就是它的海报墙。想要打造漂亮的海报墙,除了需要Jellyfin,还需要一个强大的刮削器。这次就来介绍一下,如何使用搜刮器为影片下载相关信息。

其实本身Jellyfin就是内置的刮削器的功能,但是因为DNS污染问题,造成一般情况都是刮削失败,想要修复好这个问题,就需要修改群晖的Hosts文件,不过这个需要用到命令行,那就先来介绍一个比较简便的方法吧。

tinyMediaManager

tinyMediaManager是一款简易的本地电影管理软件,可以自动下载字幕,刮削器可以选择多种。

首先要下载tinyMediaManager最新的是V4版本,作为新版当然功能更丰富,但是V4有一个限制,就是不买Pro版的情况下,仅仅支持导入50部电影数据。使用V4版本可以直接在官网下载最新版。

如果有更多电影的导入需求,可以使用V3版本,我们用到的功能,基本上V3也能满足。使用V3版本,可以在官网的历史版本中下载V3版本。

下面就以V3版本为例吧,下载好压缩包后,解压文件,通过tinyMediaManager启动软件,因为它是运行于JAVA环境,我们需要提前安装JAVA环境。启动软件后不要升级,否则会升级到V4版本。

打开tinyMediaManager后,会进入设置引导,首先会引导我们设置电影和电视剧的目录,我们只需要将我们的电影目录加入其中就可以。因为我是将我的NAS的电影目录映射为了本地硬盘,所以选择时会很简单。

刮削器我选择了TMDB,这里需要填写API,这个只需要到TMDB的官网注册账号就能获得。

本来应该到这里就可以刮削电影信息了,但是因为前面说过的DNS污染问题,这里的TMDB也是很难连上服务器的,有些朋友依然不能刮削到信息,这里我们就需要修改Hosts,不过在windows下修改hosts是比较简单的。

首先我们要在DNScheck网站上搜索api.themoviedb.org的服务器IP,然后将中国的IP记录下来。不过有时候DNScheck网站也会打不开,那就直接用我下面的IP吧

在C:\Windows\System32\drivers\etc目录下找到hosts文件,然后用管理员权限打开,这里一定要注意,是用管理员权限打开否则是无法保存的。使用记事本打开后在文档的最后加入18.164.96.34 api.themoviedb.org 然后保存下来就可以了。

完成这个设置以后,就能完美地刮削到电影的信息了。

有些电影刮削不到怎么办?例如我的《千与千寻》就没有刮削到,这时可以在豆瓣电影上搜索这一电影。然后将IMDb后面的一串编码复制下来。

然后在tinyMediaManager当中搜索这一编码,就能刮削到相应的电影了。

Jellyfin自动刮削

除了借用tinyMediaManager进行刮削,Jellyfin自己也是能够完成刮削的,只需要按我开始说的,修改群晖的hosts文件就能实现自动刮削。

首先需要在群晖的控制面板当中开启SSH功能,为了防止被攻击,我们要把端口号改成其他的,最好是4-5位数的。

然后连接群晖的SSH,我是使用的FinalShell,官方下载就行。然后连接群晖服务器,主机地址是我们群晖的IP地址,端口使用我们修改好的端口,用户名,密码是使用我们群晖帐户的,然后发起连接就可以了。

1、sudo -i 切换权限;

2、输入管理员帐号密码,在英文输入法下输入,输入时不会显示;

3、vi /etc/hosts 编辑hosts文件;

4、按下键盘i键进入编辑模式;

5、输入18.164.96.34 api.themoviedb.org并回车;

6、按下键盘ESC键,输入“:wq”保存退出。

到这里就修改完hosts文件了,修改好后一定要在群晖上关闭SSH,避免被恶意访问

到这里在Jellyfin的媒体库中开启元数据下载器就能实现自动刮削电影信息了。

通过tinyMediaManager进行刮削,设置更简单,而且刮削自主性更强,可以随心所欲。而通过Jellyfin自带的刮削器,更简单,电影下载好后,自动就能完成刮削,体验更好

### Jellyfin Scraper Configuration Guide For media management and organization, configuring scrapers within Jellyfin is essential to automatically gather metadata about the library items. The process involves accessing settings through the web interface. Navigate to the Library section where options for adding new libraries or modifying existing ones are available[^1]. When setting up a library, choose its type (movies, TV shows, music, etc.), which influences how data gets scraped. After selecting the appropriate category, proceed with clicking on advanced settings of that particular library entry. Within these configurations, find an area dedicated specifically towards scraping rules. Here one can enable/disable various online sources from which information should be pulled such as IMDb, TMDb, MusicBrainz among others depending upon what kind of content resides inside your collection[^2]. Customization does not stop there; users also have control over specific fields they wish to scrape like plot summaries, cast details, posters, backdrops et cetera by toggling checkboxes next to each item listed under 'Metadata' tab present alongside other choices mentioned earlier during setup phase[^3]. ```python # Example Python code demonstrating interaction with API endpoints related to scraper configuration. import requests def configure_scraper(library_id, enabled_scrapers): url = f"http://localhost:8096/Library/VirtualFolders/{library_id}/Scrapers" payload = { "EnabledScrapers": enabled_scrapers, # Add more parameters here based on requirements } response = requests.put(url, json=payload) return response.status_code == 204 ``` --related questions-- 1. What types of libraries support custom scraper configurations? 2. How do different media types affect scraper selection in Jellyfin? 3. Can you explain the role of Metadata tab while configuring scrapers? 4. Is it possible to add external plugins for additional scraping capabilities? 5. Which APIs could developers use when building tools around jellyfin's scraper functionalities? [^1]: This sentence describes navigating to the Library section in Jellyfin's user interface. [^2]: Explains choosing between multiple online databases for gathering metadata according to personal preferences. [^3]: Discusses fine-tuning individual elements of metadata collected via scrapers using checkbox selections.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值