无需注册在线访问满血DeepSeek

无需注册在线访问满血DeepSeek

最近DeepSeek被刷屏了,但是官网经常会服务器繁忙,这几天我发现了猎豹的CEO傅盛,部署了满血的DeepSeek,从我使用来看没有遇见服务器繁忙的问题,可以展示其推理工程,速度也是非常的快!

网站地址

地址: https://wechat-aitalk.cmcm.com/

不过这个网站目前没有兼容PC浏览器模式,可能PC用起来没有手机端用起来那么的舒服,不过也还行!

随机问题

例如:我问我想使用python 实现一个协程访问

网址: https://image.baidu.com/search/index?tn=baiduimage&ps=1&ct=201326592&lm=-1&cl=2&nc=1&ie=utf-8&dyTabStr=MCwxMiwzLDEsMiwxMyw3LDYsNSw5&word=%E6%9E%AB%E5%8F%B6

这个是百度图片搜索枫叶的url。我想使用协程的方式下载第一页的所有图片,请DeepSeek 帮我写一个脚本!

可以看到开始了推理过程

代码如下:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
import asyncio
import aiohttp
import aiofiles
import json
import os
from urllib.parse import urlencode

async def fetch_image_urls(session, params):
"""获取图片URL列表"""
api_url = "https://image.baidu.com/search/acjson"
try:
async with session.get(api_url, params=params) as response:
if response.status != 200:
print("请求失败,状态码:", response.status)
return []
data = await response.json()
urls = []
# 遍历所有图片数据(跳过无效条目)
for item in data.get("data", []):
if isinstance(item, dict):
# 优先尝试获取高清原图URL
url = item.get("objURL") or item.get("hoverURL") or item.get("thumbURL")
if url and url not in urls:
urls.append(url)
return urls
except Exception as e:
print("获取图片链接时出错:", e)
return []

async def download_image(session, url, index, save_dir):
"""异步下载单个图片"""
try:
# 设置Referer绕过反盗链
headers = {"Referer": "https://image.baidu.com/"}
async with session.get(url, headers=headers, timeout=10) as response:
if response.status == 200:
# 通过Content-Type获取文件扩展名
content_type = response.headers.get("Content-Type", "image/jpeg")
ext = "jpg" if "jpeg" in content_type else content_type.split("/")[-1]

async with aiofiles.open(
os.path.join(save_dir, f"image_{index}.{ext}"), "wb"
) as f:
await f.write(await response.read())
print(f"图片 {index} 下载成功")
else:
print(f"图片 {index} 下载失败,状态码:{response.status}")
except Exception as e:
print(f"下载图片 {index} 时出错: {str(e)}")

async def main():
# 创建保存目录
save_dir = "baidu_images"
os.makedirs(save_dir, exist_ok=True)

# 请求参数(基于浏览器抓包参数调整)
params = {
"tn": "resultjson_com",
"ipn": "rj",
"ct": 201326592,
"is": "",
"fp": "result",
"queryWord": "枫叶",
"cl": 2,
"lm": -1,
"ie": "utf-8",
"oe": "utf-8",
"word": "枫叶",
"istype": 2,
"pn": 0, # 页码(0表示第一页)
"rn": 30, # 每页数量
"gsm": "3c",
}

# 请求头设置
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/125.0.0.0 Safari/537.36",
"Accept-Language": "zh-CN,zh;q=0.9",
}

async with aiohttp.ClientSession(headers=headers) as session:
# 获取图片URL列表
image_urls = await fetch_image_urls(session, params)
print(f"共找到 {len(image_urls)} 张有效图片")

# 创建并执行下载任务
tasks = [
download_image(session, url, idx, save_dir)
for idx, url in enumerate(image_urls)
]
await asyncio.gather(*tasks)

if __name__ == "__main__":
asyncio.run(main())

总结

整体来说效果还是不错的,大家也可以试试这个工具哦!


无需注册在线访问满血DeepSeek
https://dreamshao.github.io/2025/02/14/DeepSeek满血在线访问/
作者
Yun Shao
发布于
2025年2月14日
许可协议