<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>X-osadminの自留地</title>
	<atom:link href="https://www.x-osadmin.com/feed" rel="self" type="application/rss+xml" />
	<link>https://www.x-osadmin.com</link>
	<description>- Powered by X-osadmin</description>
	<lastBuildDate>Fri, 20 Mar 2026 16:51:05 +0000</lastBuildDate>
	<language>en-US</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.4</generator>
	<item>
		<title>Proxmox强制删除离线集群节点方法</title>
		<link>https://www.x-osadmin.com/779.xpost</link>
					<comments>https://www.x-osadmin.com/779.xpost#respond</comments>
		
		<dc:creator><![CDATA[xosadmin]]></dc:creator>
		<pubDate>Fri, 20 Mar 2026 16:51:05 +0000</pubDate>
				<category><![CDATA[proxmox]]></category>
		<category><![CDATA[技术小絮]]></category>
		<guid isPermaLink="false">https://www.x-osadmin.com/?p=779</guid>

					<description><![CDATA[在本篇文章中，模拟如下cluster中的其中一个node因损坏而宕机，由此需要通过其他集群节点强行移除该node的情况。假设cluster如下： Node 1: 192.168.1.1/24 Node 2: 192.168.1.2/24 Node 3: 192.168.1.3/24 目标：在Node 3无法进行操作的情况下，从该cluster中删除node3。 操作方法： 选择Node 1或者Node 2中任意一个在线节点，打开Shell，并执行：pvecm delnode &#60;离线节点，本例中为Node 3&#62;。请注意，若提示无可用quorum，请执行pvecm expected 1后重新执行该命令 确认Node 3是否在集群中：pvecm status 在GUI上可能会有Node 3残留，为了从GUI移除Node 3，执行：rm -f /etc/pve/nodes/node3 清除可能残留的ssh key-gen：ssh-keygen -R 192.168.1.3 在另一Node上查询是否还残留Node 3文件：ls -l /etc/pve/nodes/ &#160;]]></description>
										<content:encoded><![CDATA[<div class="nc-light-gallery"><p>在本篇文章中，模拟如下cluster中的其中一个node因损坏而宕机，由此需要通过其他集群节点强行移除该node的情况。假设cluster如下：</p>
<blockquote><p>Node 1: 192.168.1.1/24</p>
<p>Node 2: 192.168.1.2/24</p>
<p>Node 3: 192.168.1.3/24</p>
<p>目标：在Node 3无法进行操作的情况下，从该cluster中删除node3。</p></blockquote>
<p>操作方法：</p>
<ol>
<li>选择Node 1或者Node 2中任意一个在线节点，打开Shell，并执行：pvecm delnode &lt;离线节点，本例中为Node 3&gt;。请注意，若提示无可用quorum，请执行pvecm expected <span class="ͼq">1后重新执行该命令</span></li>
<li>确认Node 3是否在集群中：pvecm status</li>
<li>在GUI上可能会有Node 3残留，为了从GUI移除Node 3，执行：<span class="ͼs">rm</span> <span class="ͼu">-f</span> /etc/pve/nodes/node3</li>
<li>清除可能残留的ssh key-gen：ssh-keygen <span class="ͼu">-R</span> 192.168.1.3</li>
<li>在另一Node上查询是否还残留Node 3文件：ls -l /etc/pve/nodes/</li>
</ol>
<p>&nbsp;</p>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.x-osadmin.com/779.xpost/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>PVE Cluster给node更换corosync IP的方法</title>
		<link>https://www.x-osadmin.com/770.xpost</link>
					<comments>https://www.x-osadmin.com/770.xpost#respond</comments>
		
		<dc:creator><![CDATA[xosadmin]]></dc:creator>
		<pubDate>Thu, 12 Mar 2026 06:41:04 +0000</pubDate>
				<category><![CDATA[proxmox]]></category>
		<category><![CDATA[技术小絮]]></category>
		<guid isPermaLink="false">https://www.x-osadmin.com/?p=770</guid>

					<description><![CDATA[在本篇文章中，假设PVE Cluster有如下节点，并且需要更换其中一个节点的corosync/cluster通讯IP，以讲述更换方法。 假设的Cluster: Node A: 192.168.1.1/24 Node B: 192.168.1.2/24 Node C: 192.168.1.3/24 目标：在不重建cluster的情况下，将Node C的192.168.1.3更换为192.168.1.4。 请注意：操作前，请先备份相应文件。 在所有节点中检查 /etc/hosts；如果存在 Node C 的静态 hostname 映射，则将其更新为新 IP（在本例中，为192.168.1.4）。 在任意节点中，检查 /etc/pve/corosync.conf，将 Node C 对应的地址从 192.168.1.3 修改为 192.168.1.4。该修改将会通过pmxcfs同步到所有nodes。但是在同步完成后建议手动检查每个node配置是否一致。 为了避免缓存而造成类似于Connection error 595: No route to host的问题，在所有节点中执行以下操作以刷新证书缓存，并重启cluster服务： pvecm updatecerts &#8211;force systemctl restart pve-cluster systemctl restart corosync systemctl restart pvedaemon systemctl restart pveproxy *避免使用webgui提供的WebSSH重启服务，以避免因为服务停止而导致webgui断开连接或中断服务。 4. [&#8230;]]]></description>
										<content:encoded><![CDATA[<div class="nc-light-gallery"><p>在本篇文章中，假设PVE Cluster有如下节点，并且需要更换其中一个节点的corosync/cluster通讯IP，以讲述更换方法。</p>
<blockquote><p>假设的Cluster:</p>
<p>Node A: 192.168.1.1/24</p>
<p>Node B: 192.168.1.2/24</p>
<p>Node C: 192.168.1.3/24</p>
<p>目标：在不重建cluster的情况下，将Node C的192.168.1.3更换为192.168.1.4。</p></blockquote>
<p>请注意：操作前，请先<strong>备份相应文件</strong>。</p>
<ol>
<li>在所有节点中检查 /etc/hosts；如果存在 Node C 的静态 hostname 映射，则将其更新为新 IP（在本例中，为192.168.1.4）。</li>
<li>在任意节点中，检查 /etc/pve/corosync.conf，将 Node C 对应的地址从 192.168.1.3 修改为 192.168.1.4。该修改将会通过pmxcfs同步到所有nodes。但是在同步完成后建议手动检查每个node配置是否一致。</li>
<li>为了避免缓存而造成类似于Connection error 595: No route to host的问题，在所有节点中执行以下操作以刷新证书缓存，并重启cluster服务：</li>
</ol>
<blockquote><p>pvecm updatecerts &#8211;force<br />
systemctl restart pve-cluster<br />
systemctl restart corosync<br />
systemctl restart pvedaemon<br />
systemctl restart pveproxy</p>
<p>*避免使用webgui提供的WebSSH重启服务，以避免因为服务停止而导致webgui断开连接或中断服务。</p></blockquote>
<p>4. 在每个节点中，查询是否有残留关于Node C的旧entry（即把IP指向192.168.1.3）:</p>
<blockquote><p>grep &#8220;192.168.1.3&#8221; /etc/pve/.members<br />
grep &#8220;192.168.1.3&#8221; /etc/pve/priv/known_hosts</p></blockquote>
<p>5. 操作完成后，可以通过以下方式验证是否修改成功：</p>
<blockquote>
<ul data-start="2914" data-end="3013">
<li data-section-id="1h8lde5" data-start="2914" data-end="2939">
<p data-start="2916" data-end="2939">刷新浏览器中的 Proxmox Web GUI</p>
</li>
<li data-section-id="t4op4w" data-start="2940" data-end="2967">
<p data-start="2942" data-end="2967">尝试从任意节点的 Web GUI 查看其它节点信息</p>
</li>
<li data-section-id="m75yvh" data-start="2968" data-end="2993">
<p data-start="2970" data-end="2993">尝试通过WebGUI SSH 连接到 Node C 的新 IP</p>
</li>
<li data-section-id="1ahsf6q" data-start="2994" data-end="3013">
<p data-start="2996" data-end="3013">检查 cluster 状态是否正常</p>
</li>
</ul>
</blockquote>
<p>&nbsp;</p>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.x-osadmin.com/770.xpost/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>HPE Microserver系列降低噪音的一种办法</title>
		<link>https://www.x-osadmin.com/757.xpost</link>
					<comments>https://www.x-osadmin.com/757.xpost#respond</comments>
		
		<dc:creator><![CDATA[xosadmin]]></dc:creator>
		<pubDate>Wed, 20 Aug 2025 02:24:30 +0000</pubDate>
				<category><![CDATA[技术小絮]]></category>
		<guid isPermaLink="false">https://www.x-osadmin.com/?p=757</guid>

					<description><![CDATA[部分HPE Microserver Gen10+和Gen11用户反映，安装了Debian/Proxmox或者更换了硬盘后出现风扇声音很大的问题。经过搜索和研究，发现其中一种解决方法，即在系统中安装HPE的amsd及smad组件。具体方式如下： 添加HPE MCP软件源： cat&#62;&#62;/etc/apt/sources.list.d/hpe-mcp.list&#60;&#60;EOF deb https://downloads.linux.hpe.com/SDR/repo/mcp/debian &#60;system version&#62;/current non-free EOF PS：本处&#60;system version&#62;需要替换为具体系统版本，如bookworm, trixie等 2. 安装HPE Public Key: wget -qO &#8211; https://downloads.linux.hpe.com/SDR/hpePublicKey2048_key1.pub &#124; apt-key add &#8211; 3. 升级系统，及安装amsd组件：apt update &#38;&#38; apt install amsd。安装amsd的同时也会安装smad组件。 4. 重启系统。重启完成后，可以通过systemctl status amsd smad查询服务是否正常运行，及风扇声音是否减小。 &#160; Ref: https://www.reddit.com/r/homelab/comments/1fmqs0w/microserver_gen11_loud_fans_due_to_3rd_party/]]></description>
										<content:encoded><![CDATA[<div class="nc-light-gallery"><p>部分HPE Microserver Gen10+和Gen11用户反映，安装了Debian/Proxmox或者更换了硬盘后出现风扇声音很大的问题。经过搜索和研究，发现其中一种解决方法，即在系统中安装HPE的amsd及smad组件。具体方式如下：</p>
<ol>
<li>添加HPE MCP软件源：</li>
</ol>
<p>cat&gt;&gt;/etc/apt/sources.list.d/hpe-mcp.list&lt;&lt;EOF</p>
<p>deb https://downloads.linux.hpe.com/SDR/repo/mcp/debian &lt;system version&gt;/current non-free</p>
<p>EOF</p>
<p>PS：本处&lt;system version&gt;需要替换为具体系统版本，如bookworm, trixie等</p>
<p>2. 安装HPE Public Key: wget -qO &#8211; https://downloads.linux.hpe.com/SDR/hpePublicKey2048_key1.pub | apt-key add &#8211;</p>
<p>3. 升级系统，及安装amsd组件：apt update &amp;&amp; apt install amsd。安装amsd的同时也会安装smad组件。</p>
<p>4. 重启系统。重启完成后，可以通过systemctl status amsd smad查询服务是否正常运行，及风扇声音是否减小。</p>
<p>&nbsp;</p>
<p>Ref: https://www.reddit.com/r/homelab/comments/1fmqs0w/microserver_gen11_loud_fans_due_to_3rd_party/</p>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.x-osadmin.com/757.xpost/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Debian 13 Trixie安装Proxmox VE</title>
		<link>https://www.x-osadmin.com/754.xpost</link>
					<comments>https://www.x-osadmin.com/754.xpost#respond</comments>
		
		<dc:creator><![CDATA[xosadmin]]></dc:creator>
		<pubDate>Wed, 20 Aug 2025 02:16:34 +0000</pubDate>
				<category><![CDATA[proxmox]]></category>
		<category><![CDATA[技术小絮]]></category>
		<guid isPermaLink="false">https://www.x-osadmin.com/?p=754</guid>

					<description><![CDATA[Debian官方近日发布了Debian 13 Trixie操作系统。相应的，Proxmox官方也加入了对Debian 13操作系统的支持。在之前介绍过Debian 12安装Proxmox的方法。本次Debian 13安装的方法与前一代类似。 修改主机名，这一步与前一代一致，可以参考Debian 12安装Proxmox的方法 以DEB822格式加入Proxmox软件库。执行以下代码以加入： cat &#62; /etc/apt/sources.list.d/pve-install-repo.sources &#60;&#60; EOL Types: deb URIs: http://download.proxmox.com/debian/pve Suites: trixie Components: pve-no-subscription Signed-By: /usr/share/keyrings/proxmox-archive-keyring.gpg Architechtures: amd64 EOL PS: 若需要将传统格式的软件源修改为DEB822格式，您可使用：apt modernize-sources 3. 下载Proxmox的GPG Key： wget https://enterprise.proxmox.com/debian/proxmox-archive-keyring-trixie.gpg -O /usr/share/keyrings/proxmox-archive-keyring.gpg 以下为官方提供的GPG Key的MD5及SHA256： sha256sum /usr/share/keyrings/proxmox-archive-keyring.gpg 136673be77aba35dcce385b28737689ad64fd785a797e57897589aed08db6e45 /usr/share/keyrings/proxmox-archive-keyring.gpg md5sum /usr/share/keyrings/proxmox-archive-keyring.gpg 77c8b1166d15ce8350102ab1bca2fcbf /usr/share/keyrings/proxmox-archive-keyring.gpg 4. 升级系统：apt update -y &#38;&#38; apt full-upgrade -y [&#8230;]]]></description>
										<content:encoded><![CDATA[<div class="nc-light-gallery"><p style="text-align: center;"><img fetchpriority="high" decoding="async" class="alignnone size-full wp-image-529" src="https://www.x-osadmin.com/wp-content/uploads/2021/11/download.png" alt="" width="225" height="225" srcset="https://www.x-osadmin.com/wp-content/uploads/2021/11/download.png 225w, https://www.x-osadmin.com/wp-content/uploads/2021/11/download-150x150.png 150w" sizes="(max-width: 225px) 100vw, 225px" /></p>
<p>Debian官方近日发布了Debian 13 Trixie操作系统。相应的，Proxmox官方也加入了对Debian 13操作系统的支持。在之前介绍过<a href="https://www.x-osadmin.com/639.xpost">Debian 12安装Proxmox的方法</a>。本次Debian 13安装的方法与前一代类似。</p>
<ol>
<li>修改主机名，这一步与前一代一致，可以参考<a href="https://www.x-osadmin.com/639.xpost">Debian 12安装Proxmox的方法</a></li>
<li>以DEB822格式加入Proxmox软件库。执行以下代码以加入：</li>
</ol>
<blockquote>
<pre>cat &gt; /etc/apt/sources.list.d/pve-install-repo.sources &lt;&lt; EOL
Types: deb
URIs: <a class="external free" href="http://download.proxmox.com/debian/pve" rel="nofollow">http://download.proxmox.com/debian/pve</a>
Suites: trixie
Components: pve-no-subscription
Signed-By: /usr/share/keyrings/proxmox-archive-keyring.gpg
Architechtures: amd64
EOL

PS: 若需要将传统格式的软件源修改为DEB822格式，您可使用：apt modernize-sources</pre>
</blockquote>
<p>3. 下载Proxmox的GPG Key： wget https://enterprise.proxmox.com/debian/proxmox-archive-keyring-trixie.gpg -O /usr/share/keyrings/proxmox-archive-keyring.gpg</p>
<blockquote>
<pre>以下为官方提供的GPG Key的MD5及SHA256：
sha256sum /usr/share/keyrings/proxmox-archive-keyring.gpg
136673be77aba35dcce385b28737689ad64fd785a797e57897589aed08db6e45 /usr/share/keyrings/proxmox-archive-keyring.gpg

md5sum /usr/share/keyrings/proxmox-archive-keyring.gpg
77c8b1166d15ce8350102ab1bca2fcbf /usr/share/keyrings/proxmox-archive-keyring.gpg</pre>
</blockquote>
<p>4. 升级系统：apt update -y &amp;&amp; apt full-upgrade -y</p>
<p>5. 安装Proxmox Kernel及相应软件包：</p>
<blockquote>
<pre>apt install proxmox-default-kernel</pre>
<pre>apt install proxmox-ve postfix open-iscsi chrony</pre>
</blockquote>
<p>6. <strong>确认安装成功</strong>后，卸载已有的内核和os-prober软件包：</p>
<blockquote>
<pre>apt remove linux-image-amd64 'linux-image-6.12*'
apt remove os-prober</pre>
</blockquote>
<p>7. 刷新grub配置：update-grub</p>
<p>8. 重启系统</p>
<p>在重启完成后，应当可以通过<strong>https://&lt;主机IP&gt;:8006</strong>访问到Proxmox的GUI。</p>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.x-osadmin.com/754.xpost/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Windows FTP服务器通过PASV模式无法获取目录的解决方法</title>
		<link>https://www.x-osadmin.com/704.xpost</link>
					<comments>https://www.x-osadmin.com/704.xpost#respond</comments>
		
		<dc:creator><![CDATA[xosadmin]]></dc:creator>
		<pubDate>Mon, 03 Mar 2025 05:45:51 +0000</pubDate>
				<category><![CDATA[技术小絮]]></category>
		<guid isPermaLink="false">https://www.x-osadmin.com/?p=704</guid>

					<description><![CDATA[Windows FTP Server是一个Windows IIS自带的FTP服务器。在搭建后可能会出现通过PASV模式无法获得目录列表的问题。具体解决方法如下： 在Server Manager中安装FTP Extensions (若已安装可以忽略) 进入IIS Manager，在左侧边栏点击服务器名称 选择FTP Firewall Support，在Data Channel Port Range中把0-0设定成一个PASV端口范围（端口范围必须是1024-65535的子集），并点击右边的Apply 进入Windows Firewall Advance Settings，放行FTP服务器的端口（如21），和刚才设定的PASV端口范围，类型为TCP。 进入services.msc，重启Microsoft FTP Server服务 最后，重新尝试连接。若可以获得目录列表，即问题已解决。同时，为了避免其他问题，可以提供Physical Path的读写权限给FTP用户所处的用户组或者单个用户。]]></description>
										<content:encoded><![CDATA[<div class="nc-light-gallery"><p>Windows FTP Server是一个Windows IIS自带的FTP服务器。在搭建后可能会出现通过PASV模式无法获得目录列表的问题。具体解决方法如下：</p>
<ol>
<li>在Server Manager中安装FTP Extensions (若已安装可以忽略)</li>
<li>进入IIS Manager，在左侧边栏点击服务器名称</li>
<li>选择FTP Firewall Support，在Data Channel Port Range中把0-0设定成一个PASV端口范围（端口范围必须是1024-65535的子集），并点击右边的Apply</li>
<li>进入Windows Firewall Advance Settings，放行FTP服务器的端口（如21），和刚才设定的PASV端口范围，类型为TCP。</li>
<li>进入services.msc，重启Microsoft FTP Server服务</li>
</ol>
<p>最后，重新尝试连接。若可以获得目录列表，即问题已解决。同时，为了避免其他问题，可以提供Physical Path的读写权限给FTP用户所处的用户组或者单个用户。</p>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.x-osadmin.com/704.xpost/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Proxmox日志出现大量lxcfs truncated错误的解决方案</title>
		<link>https://www.x-osadmin.com/695.xpost</link>
					<comments>https://www.x-osadmin.com/695.xpost#respond</comments>
		
		<dc:creator><![CDATA[xosadmin]]></dc:creator>
		<pubDate>Wed, 20 Nov 2024 12:06:08 +0000</pubDate>
				<category><![CDATA[proxmox]]></category>
		<category><![CDATA[技术小絮]]></category>
		<guid isPermaLink="false">https://www.x-osadmin.com/?p=695</guid>

					<description><![CDATA[在部分Proxmox版本中运行LXC虚拟机，可能会遇到以下情况：日志中出现大量Internal error: truncated write to cache，并且实时在滚动更新。 经过搜索和研究，可以通过以下方式进行修复： 编辑/lib/systemd/system/lxcfs.service文件，并修改ExecStart成如下内容： /usr/bin/lxcfs -l &#8211;enable-cfs &#8211;enable-pidfd /var/lib/lxcfs 执行systemctl daemon-reload刷新系统服务 重启lxcfs服务，或者重启宿主机 重启完成后，一般情况下，该问题会得到解决。另外，在对系统服务进行修改前，请注意备份以便出现问题时恢复。 &#160; Ref: https://forum.proxmox.com/threads/lxcfs-and-load-average.63254/ Enjoy~]]></description>
										<content:encoded><![CDATA[<div class="nc-light-gallery"><p>在部分Proxmox版本中运行LXC虚拟机，可能会遇到以下情况：日志中出现大量Internal error: truncated write to cache，并且实时在滚动更新。</p>
<p>经过搜索和研究，可以通过以下方式进行修复：</p>
<ol>
<li>编辑/lib/systemd/system/lxcfs.service文件，并修改ExecStart成如下内容：<br />
/usr/bin/lxcfs -l &#8211;enable-cfs &#8211;enable-pidfd /var/lib/lxcfs</li>
<li>执行systemctl daemon-reload刷新系统服务</li>
<li>重启lxcfs服务，或者重启宿主机</li>
</ol>
<p>重启完成后，一般情况下，该问题会得到解决。另外，在对系统服务进行修改前，请注意备份以便出现问题时恢复。</p>
<p>&nbsp;</p>
<p>Ref: https://forum.proxmox.com/threads/lxcfs-and-load-average.63254/</p>
<p>Enjoy~</p>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.x-osadmin.com/695.xpost/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Proxmox通过CLI向LXC挂载已有虚拟磁盘的方法</title>
		<link>https://www.x-osadmin.com/693.xpost</link>
					<comments>https://www.x-osadmin.com/693.xpost#respond</comments>
		
		<dc:creator><![CDATA[xosadmin]]></dc:creator>
		<pubDate>Tue, 12 Nov 2024 14:52:34 +0000</pubDate>
				<category><![CDATA[proxmox]]></category>
		<category><![CDATA[技术小絮]]></category>
		<guid isPermaLink="false">https://www.x-osadmin.com/?p=693</guid>

					<description><![CDATA[LXC采用.raw格式的虚拟硬盘，在proxmox中也不例外。然而，LXC或Proxmox并没有提供向KVM那样能在CLI中直接挂载.img到虚拟机的方法。但是，可以通过以下方法进行挂载已有磁盘。 关闭目标LXC容器 将已有的磁盘文件复制到/path/to/vmroot/images/&#60;container-id&#62;，并将文件名修改为vm-&#60;container-id&#62;-disk-0.raw。请将container-id替换为实际的容器ID。另外，若LXC已经拥有一个虚拟磁盘，则还需要将disk-0修改为disk-x。x为添加后的最大磁盘数量-1，如第二块硬盘，则需要修改为disk-1.raw 修改/etc/pve/lxc/&#60;container-id&#62;.conf，并向其添加一行： 若无虚拟磁盘，则需添加：rootfs: &#60;存储名称&#62;:&#60;container-id&#62;/&#60;虚拟磁盘文件名&#62;,size=&#60;磁盘大小&#62; 若已有虚拟磁盘，则添加：mpx: &#60;存储名称&#62;:&#60;container-id&#62;/&#60;虚拟磁盘文件名&#62;,mp=&#60;容器内挂载位置&#62;,size=&#60;磁盘大小&#62; ** x为最大磁盘数量-1 重新启动LXC容器，并且可以在Resources中查询到已经添加的磁盘 Enjoy~]]></description>
										<content:encoded><![CDATA[<div class="nc-light-gallery"><p>LXC采用.raw格式的虚拟硬盘，在proxmox中也不例外。然而，LXC或Proxmox并没有提供向KVM那样能在CLI中直接挂载.img到虚拟机的方法。但是，可以通过以下方法进行挂载已有磁盘。</p>
<ul>
<li>关闭目标LXC容器</li>
<li>将已有的磁盘文件复制到/path/to/vmroot/images/&lt;container-id&gt;，并将文件名修改为vm-&lt;container-id&gt;-disk-0.raw。请将container-id替换为实际的容器ID。另外，若LXC已经拥有一个虚拟磁盘，则还需要将disk-0修改为disk-x。x为添加后的最大磁盘数量-1，如第二块硬盘，则需要修改为disk-1.raw</li>
<li>修改/etc/pve/lxc/&lt;container-id&gt;.conf，并向其添加一行：</li>
</ul>
<blockquote><p>若无虚拟磁盘，则需添加：rootfs: &lt;存储名称&gt;:&lt;container-id&gt;/&lt;虚拟磁盘文件名&gt;,size=&lt;磁盘大小&gt;</p>
<p>若已有虚拟磁盘，则添加：mpx: &lt;存储名称&gt;:&lt;container-id&gt;/&lt;虚拟磁盘文件名&gt;,mp=&lt;容器内挂载位置&gt;,size=&lt;磁盘大小&gt;</p>
<p>** x为最大磁盘数量-1</p></blockquote>
<ul>
<li>重新启动LXC容器，并且可以在Resources中查询到已经添加的磁盘</li>
</ul>
<p>Enjoy~</p>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.x-osadmin.com/693.xpost/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>LXC上安装Gitlab时sysctl报错的解决方法</title>
		<link>https://www.x-osadmin.com/679.xpost</link>
					<comments>https://www.x-osadmin.com/679.xpost#respond</comments>
		
		<dc:creator><![CDATA[xosadmin]]></dc:creator>
		<pubDate>Sat, 20 Apr 2024 06:16:22 +0000</pubDate>
				<category><![CDATA[技术小絮]]></category>
		<guid isPermaLink="false">https://www.x-osadmin.com/?p=679</guid>

					<description><![CDATA[问题情况：在LXC unprivileged容器上安装Gitlab时，在执行gitlab-ctl reconfigure时可能会报出sysctl: permission denied的错误。 解决方法：在/etc/gitlab/gitlab.rb中加入package[&#8216;modify_kernel_parameters&#8217;] = false后重新执行gitlab-ctl reconfigure即可。]]></description>
										<content:encoded><![CDATA[<div class="nc-light-gallery"><p>问题情况：在LXC unprivileged容器上安装Gitlab时，在执行gitlab-ctl reconfigure时可能会报出sysctl: permission denied的错误。</p>
<p>解决方法：在/etc/gitlab/gitlab.rb中加入package[&#8216;modify_kernel_parameters&#8217;] = false后重新执行gitlab-ctl reconfigure即可。</p>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.x-osadmin.com/679.xpost/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Proxmox VE通过全盘方式直通硬盘</title>
		<link>https://www.x-osadmin.com/677.xpost</link>
					<comments>https://www.x-osadmin.com/677.xpost#respond</comments>
		
		<dc:creator><![CDATA[xosadmin]]></dc:creator>
		<pubDate>Sat, 06 Apr 2024 05:16:28 +0000</pubDate>
				<category><![CDATA[proxmox]]></category>
		<category><![CDATA[技术小絮]]></category>
		<guid isPermaLink="false">https://www.x-osadmin.com/?p=677</guid>

					<description><![CDATA[本文章将以全盘映射的方式挂载整块硬盘到Proxmox KVM虚拟机。LXC虚拟机暂时不支持。 首先，打开SSH或者控制面板上的Shell，并执行以下代码以展示所有硬盘ID： ls /dev/disk/by-id Note: 硬盘ID通常没有诸如&#8221;-part2&#8243;等的后缀 找到需要的硬盘后，执行以下命令以挂载： qm set &#60;vmid&#62; -sata1 /dev/disk/by-id/&#60;drive_id&#62; 当得到以下返回后，则表示挂载已经成功。 update VM &#60;vmid&#62;: -sata1 /dev/disk/by-id/&#60;drive_id&#62; Note: 在备份虚拟机时建议取消挂载全盘映射，因为容易导致虚拟机备份文件过大。]]></description>
										<content:encoded><![CDATA[<div class="nc-light-gallery"><p>本文章将以全盘映射的方式挂载整块硬盘到Proxmox KVM虚拟机。LXC虚拟机暂时不支持。</p>
<p>首先，打开SSH或者控制面板上的Shell，并执行以下代码以展示所有硬盘ID：</p>
<blockquote><p>ls /dev/disk/by-id</p>
<p>Note: 硬盘ID通常没有诸如&#8221;-part2&#8243;等的后缀</p></blockquote>
<p>找到需要的硬盘后，执行以下命令以挂载：</p>
<blockquote><p>qm set &lt;vmid&gt; -sata1 /dev/disk/by-id/&lt;drive_id&gt;</p></blockquote>
<p>当得到以下返回后，则表示挂载已经成功。</p>
<blockquote><p>update VM &lt;vmid&gt;: -sata1 /dev/disk/by-id/&lt;drive_id&gt;</p></blockquote>
<p>Note: 在备份虚拟机时建议取消挂载全盘映射，因为容易导致虚拟机备份文件过大。</p>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.x-osadmin.com/677.xpost/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
		<item>
		<title>Proxmox为KVM VNC启用剪贴板支持</title>
		<link>https://www.x-osadmin.com/675.xpost</link>
					<comments>https://www.x-osadmin.com/675.xpost#respond</comments>
		
		<dc:creator><![CDATA[xosadmin]]></dc:creator>
		<pubDate>Fri, 05 Apr 2024 09:16:37 +0000</pubDate>
				<category><![CDATA[proxmox]]></category>
		<category><![CDATA[技术小絮]]></category>
		<guid isPermaLink="false">https://www.x-osadmin.com/?p=675</guid>

					<description><![CDATA[在Proxmox 8版本中，官方已经加入了对于剪贴板的初步支持。以下为如何为虚拟机启用这个支持。 Note: 因为为初步支持，因此不能保证能够完美使用。 在宿主机上安装spice-vdagent。 apt-get install spice-vdagent -y 2. 启动spice-vdagent服务 systemctl enable spice-vdagent &#8211;now 3. 修改需要启用剪贴板支持的虚拟机 qm set &#60;vmid&#62; -vga std,clipboard=vnc 4. Power off并重新启动目标虚拟机 &#160; 到这里，VNC处会出现一个剪贴板标志，即为成功的标志。]]></description>
										<content:encoded><![CDATA[<div class="nc-light-gallery"><p>在Proxmox 8版本中，官方已经加入了对于剪贴板的初步支持。以下为如何为虚拟机启用这个支持。</p>
<p>Note: 因为为初步支持，因此不能保证能够完美使用。</p>
<ol>
<li>在宿主机上安装spice-vdagent。</li>
</ol>
<blockquote><p>apt-get install spice-vdagent -y</p></blockquote>
<p>2. 启动spice-vdagent服务</p>
<blockquote><p>systemctl enable spice-vdagent &#8211;now</p></blockquote>
<p>3. 修改需要启用剪贴板支持的虚拟机</p>
<blockquote><p>qm set &lt;vmid&gt; -vga std,clipboard=vnc</p></blockquote>
<p>4. Power off并重新启动目标虚拟机</p>
<p>&nbsp;</p>
<p>到这里，VNC处会出现一个剪贴板标志，即为成功的标志。</p>
</div>]]></content:encoded>
					
					<wfw:commentRss>https://www.x-osadmin.com/675.xpost/feed</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
