首页
畅所欲言
友情链接
壁纸大全
数据统计
推荐
工具箱
在线白板
Search
1
职教云小助手重构更新,职教云助手最新版下载地址【已和谐】
13,374 阅读
2
职教云-智慧职教,网课观看分析(秒刷网课)
10,986 阅读
3
gradle-5.4.1-all.zip下载
8,877 阅读
4
职教云-智慧职教,签到补签分析(逆天改命系列)
7,835 阅读
5
一个优秀的程序员从写文档开始:免费领14个月语雀云笔记会员
6,874 阅读
学习笔记
Web
Python
转载文章
算法刷题
JS逆向
综合笔记
安卓
物联网
Java
C
资源收集
软件收藏
网络资源
影视专辑
TED英语角
随便写写
随手拍
登录
/
注册
Search
Lan
累计撰写
624
篇文章
累计收到
617
条评论
首页
栏目
学习笔记
Web
Python
转载文章
算法刷题
JS逆向
综合笔记
安卓
物联网
Java
C
资源收集
软件收藏
网络资源
影视专辑
TED英语角
随便写写
随手拍
页面
畅所欲言
友情链接
壁纸大全
数据统计
推荐
工具箱
在线白板
搜索到
624
篇与
的结果
2020-03-10
一些信息查询入口
1.中国执行信息公开网访问网址:http://zxgk.court.gov.cn/?dt_dapp=1注释:输入姓名或shen/份证号就可以查到一个人的失信记录,借钱之前查看是否是老赖!2.全国标准信息公共服务平台访问网址:http://www.std.gov.cn注释:我们生活中各行各业的行业标准,包括行业标准、团体标准、国外标准,已废止的、现行的、即将实施的都能查到。3.征信中心(银行一般规定:一个月不要查询超过三次)访问网址:https://ipcrs.pbccrc.org.cn/注释:这个是用来查询自己的个人信用记录,违约、延迟还款和查询是否存在不良记录,信用不足会影响银行贷款等行为!4.中国裁判文书网访问网址:http://wenshu.court.gov.cn注释:输入你要查询的人物姓名,检索对方的名字,刑事案件,个人经济纠纷,债权债务信息一目了然!5.国家药品监督管理局访问网址:http://www.nmpa.gov.cn/WS04/CL2042/注释:输入检索项目搜索,凡是没有通过国家药监局备案的产品都是三无产品!6.商务部直销行业管理访问网址:http://zxgl.mofcom.gov.cn注释:可以查询所处单位是是传销还是直销!7.全国企业信用信息公示系统访问网址:http://www.gsxt.gov.cn/index.html注释:毕业学生找工作不知道公司靠不靠谱,可以上这里查询面试公司是不是正规公司。8.滚蛋吧!莆田系访问网址:https://putianxi.github.io/index.html注释:可以查询全国各地的莆田系医院!9.支付宝查个人婚姻状况查询方法:https://www.douban.com/group/topic/142322388/
2020年03月10日
881 阅读
0 评论
0 点赞
2020-03-10
学生机环境-Java编程环境及API帮助文档
下载地址:点击进入
2020年03月10日
768 阅读
0 评论
0 点赞
2020-03-09
猎聘网招聘数据
下载地址:https://file.lanol.cn/爬虫/
2020年03月09日
457 阅读
0 评论
0 点赞
2020-03-08
python3 + flask + sqlalchemy
python3 + flask + sqlalchemy +orm(1):链接mysql 数据库1、pycharm中新建一个flask项目2、按装flask、PyMySQL、flask-sqlalchemy3、项目下面新建一个config.py 文件DEBUG = True #dialect+driver://root:1q2w3e4r5t@127.0.0.1:3306/ DIALECT = 'mysql' DRIVER='pymysql' USERNAME = 'root' PASSWORD = '1q2w3e4r5t' HOST = '127.0.0.1' PORT = 3306 DATABASE = 'db_demo1' SQLALCHEMY_DATABASE_URI = "{}+{}://{}:{}@{}:{}/{}?charset=utf8".format(DIALECT,DRIVER,USERNAME,PASSWORD,HOST,PORT,DATABASE) SQLALCHEMY_TRACK_MODIFICATIONS = False print(SQLALCHEMY_DATABASE_URI)4、app.py 文件from flask import Flask import config from flask_sqlalchemy import SQLAlchemy app = Flask(__name__) app.config.from_object(config) db = SQLAlchemy(app) db.create_all() @app.route('/') def index(): return 'index' if __name__ == '__main__': app.run()执行app.py 文件,结果如下,表面执行成功from flask import Flask import config from flask_sqlalchemy import SQLAlchemy app = Flask(__name__) app.config.from_object(config) db = SQLAlchemy(app) db.create_all() @app.route('/') def index(): return 'index' if __name__ == '__main__': app.run()FLASK_APP = test_sqlalchemy.pyFLASK_ENV = developmentFLASK_DEBUG = 1In folder /Users/autotest/PycharmProjects/python3_flask/Users/autotest/PycharmProjects/python3_flask/venv/bin/python /Applications/PyCharm.app/Contents/helpers/pydev/pydevd.py --module --multiproc --qt-support=auto --client 127.0.0.1 --port 55365 --file flask runpydev debugger: process 3089 is connectingConnected to pydev debugger (build 182.4505.26)* Serving Flask app "test_sqlalchemy.py" (lazy loading)* Environment: development* Debug mode: onmysql+pymysql://root:1q2w3e4r5t@127.0.0.1:3306/db_demo1?charset=utf8* Running on http://127.0.0.1:5000/ (Press CTRL+C to quit)* Restarting with statpydev debugger: process 3090 is connectingmysql+pymysql://root:1q2w3e4r5t@127.0.0.1:3306/db_demo1?charset=utf8* Debugger is active!* Debugger PIN: 216-502-598python3 + flask + sqlalchemy +orm(2):数据库中添加表往数据库中添加一张保存文章的表,表明为article,字段有id,title,content同样一个配置文件:config.pyDEBUG = True #dialect+driver://root:1q2w3e4r5t@127.0.0.1:3306/ DIALECT = 'mysql' DRIVER='pymysql' USERNAME = 'root' PASSWORD = '1q2w3e4r5t' HOST = '127.0.0.1' PORT = 3306 DATABASE = 'db_demo1' SQLALCHEMY_DATABASE_URI = "{}+{}://{}:{}@{}:{}/{}?charset=utf8".format(DIALECT,DRIVER,USERNAME,PASSWORD,HOST,PORT,DATABASE) SQLALCHEMY_TRACK_MODIFICATIONS = False print(SQLALCHEMY_DATABASE_URI)flask app 中新建一个class Blog,里面定义好id ,title ,content。代码执行到db.create_all()时,会自动在数据库中创建一个表,表明为blogfrom flask import Flask import config from flask_sqlalchemy import SQLAlchemy from sqlalchemy.ext.declarative import declarative_base app = Flask(__name__) app.config.from_object(config) db = SQLAlchemy(app) Base = declarative_base() class Blog(db.Model): __tablename__ = 'blog' id = db.Column(db.Integer,primary_key=True,autoincrement=True) title = db.Column(db.String(100),nullable=False) content = db.Column(db.Text,nullable=True) db.create_all() @app.route('/') def index(): return 'index' if __name__ == '__main__': app.run(debug=True)启动flask app,数据库中查询表和表结构如下,有新增相应的表,说明新建表成功 数据库表中的数据增删改查 #新增 blog = Blog(title="first blog",content="this is my first blog") db.session.add(blog) db.session.commit() #查询 #res =Blog.query.filter(Blog.title=="first blog")[0] res =Blog.query.filter(Blog.title=="first blog").first() print(res.title) #修改 blog_edit = Blog.query.filter(Blog.title=="first blog").first() blog_edit.title = "new first blog" db.session.commit() #删除 blog_delete = Blog.query.filter(Blog.title=="first blog").first() db.session.delete(blog_delete) db.session.commit()完整代码from flask import Flask import config from flask_sqlalchemy import SQLAlchemy from sqlalchemy.ext.declarative import declarative_base app = Flask(__name__) app.config.from_object(config) db = SQLAlchemy(app) Base = declarative_base() class Blog(db.Model): __tablename__ = 'blog' id = db.Column(db.Integer,primary_key=True,autoincrement=True) title = db.Column(db.String(100),nullable=False) content = db.Column(db.Text,nullable=True) db.create_all() @app.route('/') def index(): #新增 blog = Blog(title="first blog",content="this is my first blog") db.session.add(blog) db.session.commit() #查询 #res =Blog.query.filter(Blog.title=="first blog")[0] res =Blog.query.filter(Blog.title=="first blog").first() print(res.title) #修改 blog_edit = Blog.query.filter(Blog.title=="first blog").first() blog_edit.title = "new first blog" db.session.commit() #删除 blog_delete = Blog.query.filter(Blog.title=="first blog").first() db.session.delete(blog_delete) db.session.commit() return 'index' if __name__ == '__main__': app.run(debug=True)一篇文章有多个tag,一个tag也可以属于多篇文章,文章和tag存在多对多关系config.pyDEBUG = True #dialect+driver://root:1q2w3e4r5t@127.0.0.1:3306/ DIALECT = 'mysql' DRIVER='pymysql' USERNAME = 'demo_user' PASSWORD = 'demo_123' HOST = '172.16.10.6' PORT = 3306 DATABASE = 'db_demo1' SQLALCHEMY_DATABASE_URI = "{}+{}://{}:{}@{}:{}/{}?charset=utf8".format(DIALECT,DRIVER,USERNAME,PASSWORD,HOST,PORT,DATABASE) SQLALCHEMY_TRACK_MODIFICATIONS = False print(SQLALCHEMY_DATABASE_URI)app.pyfrom flask import Flask import config from flask_sqlalchemy import SQLAlchemy from sqlalchemy.ext.declarative import declarative_base app = Flask(__name__) app.config.from_object(config) db = SQLAlchemy(app) Base = declarative_base() article_tag = db.Table('article_tag', db.Column('article_id',db.Integer,db.ForeignKey("article.id"),primary_key=True), db.Column('tag_id',db.Integer,db.ForeignKey("tag.id"),primary_key=True) ) class Article(db.Model): __tablename__='article' id = db.Column(db.Integer,primary_key=True,autoincrement=True) title = db.Column(db.String(100),nullable=True) tags = db.relationship('Tag',secondary=article_tag,backref=db.backref('articles')) class Tag(db.Model): __tablename__='tag' id = db.Column(db.Integer,primary_key=True,autoincrement=True) name = db.Column(db.String(100),nullable=True) db.create_all() @app.route('/') def index(): article1 = Article(title="aaa") article2 = Article(title="bbb") tag1 = Tag(name='1111') tag2 = Tag(name='2222') article1.tags.append(tag1) article1.tags.append(tag2) article2.tags.append(tag1) article2.tags.append(tag2) db.session.add(article1) db.session.add(article2) db.session.add(tag1) db.session.add(tag2) db.session.commit() return 'index' if __name__ == '__main__': app.run(debug=True)
2020年03月08日
864 阅读
0 评论
0 点赞
2020-03-06
利用Scrapy框架爬取LOL皮肤站高清壁纸
成品打包:点击进入代码:爬虫文件# -*- coding: utf-8 -*- import scrapy from practice.items import PracticeItem from urllib import parse class LolskinSpider(scrapy.Spider): name = 'lolskin' allowed_domains = ['lolskin.cn'] start_urls = ['https://lolskin.cn/champions.html'] # 获取所有英雄链接 def parse(self, response): item = PracticeItem() item['urls'] = response.xpath('//div[2]/div[1]/div/ul/li/a/@href').extract() for url in item['urls']: self.csurl = 'https://lolskin.cn' yield scrapy.Request(url=parse.urljoin(self.csurl, url), dont_filter=True, callback=self.bizhi) return item # 获取所有英雄皮肤链接 def bizhi(self, response): skins = (response.xpath('//td/a/@href').extract()) for skin in skins: yield scrapy.Request(url=parse.urljoin(self.csurl, skin), dont_filter=True, callback=self.get_bzurl) # 采集每个皮肤的壁纸,获取壁纸链接 def get_bzurl(self, response): item = PracticeItem() image_urls = response.xpath('//body/div[1]/div/a/@href').extract() image_name = response.xpath('//h1/text()').extract() yield { 'image_urls': image_urls, 'image_name': image_name } return itemitems.py# -*- coding: utf-8 -*- # Define here the models for your scraped items # # See documentation in: # https://docs.scrapy.org/en/latest/topics/items.html import scrapy class PracticeItem(scrapy.Item): # define the fields for your item here like: # name = scrapy.Field() # titles = scrapy.Field() # yxpngs = scrapy.Field() urls = scrapy.Field() skin_name = scrapy.Field() # 皮肤名 image_urls = scrapy.Field() # 皮肤壁纸url images = scrapy.Field()pipelines.py# -*- coding: utf-8 -*- # Define your item pipelines here # # Don't forget to add your pipeline to the ITEM_PIPELINES setting # See: https://docs.scrapy.org/en/latest/topics/item-pipeline.html import os import re from scrapy.pipelines.images import ImagesPipeline import scrapy # class PracticePipeline(object): # def __init__(self): # self.file = open('text.csv', 'a+') # # def process_item(self, item, spider): # # os.chdir('lolskin') # # for title in item['titles']: # # os.makedirs(title) # skin_name = item['skin_name'] # skin_jpg = item['skin_jpg'] # for i in range(len(skin_name)): # self.file.write(f'{skin_name[i]},{skin_jpg} ') # self.file.flush() # return item # # def down_bizhi(self, item, spider): # self.file.close() class LoLPipeline(ImagesPipeline): def get_media_requests(self, item, info): for image_url in item['image_urls']: yield scrapy.Request(image_url, meta={'image_name': item['image_name']}) # 修改下载之后的路径以及文件名 def file_path(self, request, response=None, info=None): image_name = re.findall('/skin/(.*?)/', request.url)[0] + "/" + request.meta[f'image_name'][0] + '.jpg' return image_namesettings.py# -*- coding: utf-8 -*- # Scrapy settings for practice project # # For simplicity, this file contains only settings considered important or # commonly used. You can find more settings consulting the documentation: # # https://docs.scrapy.org/en/latest/topics/settings.html # https://docs.scrapy.org/en/latest/topics/downloader-middleware.html # https://docs.scrapy.org/en/latest/topics/spider-middleware.html import os BOT_NAME = 'practice' SPIDER_MODULES = ['practice.spiders'] NEWSPIDER_MODULE = 'practice.spiders' # Crawl responsibly by identifying yourself (and your website) on the user-agent # USER_AGENT = 'practice (+http://www.yourdomain.com)' # Obey robots.txt rules ROBOTSTXT_OBEY = False # Configure maximum concurrent requests performed by Scrapy (default: 16) # CONCURRENT_REQUESTS = 32 # Configure a delay for requests for the same website (default: 0) # See https://docs.scrapy.org/en/latest/topics/settings.html#download-delay # See also autothrottle settings and docs # 设置延时 DOWNLOAD_DELAY = 1 # The download delay setting will honor only one of: # CONCURRENT_REQUESTS_PER_DOMAIN = 16 # CONCURRENT_REQUESTS_PER_IP = 16 # Disable cookies (enabled by default) # COOKIES_ENABLED = False # Disable Telnet Console (enabled by default) # TELNETCONSOLE_ENABLED = False # Override the default request headers: # DEFAULT_REQUEST_HEADERS = { # 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8', # 'Accept-Language': 'en', # } # Enable or disable spider middlewares # See https://docs.scrapy.org/en/latest/topics/spider-middleware.html # SPIDER_MIDDLEWARES = { # 'practice.middlewares.PracticeSpiderMiddleware': 543, # } # Enable or disable downloader middlewares # See https://docs.scrapy.org/en/latest/topics/downloader-middleware.html # DOWNLOADER_MIDDLEWARES = { # 'practice.middlewares.PracticeDownloaderMiddleware': 543, # } # Enable or disable extensions # See https://docs.scrapy.org/en/latest/topics/extensions.html # EXTENSIONS = { # 'scrapy.extensions.telnet.TelnetConsole': None, # } # Configure item pipelines # See https://docs.scrapy.org/en/latest/topics/item-pipeline.html ITEM_PIPELINES = { # 'practice.pipelines.PracticePipeline': 300, # 'scrapy.pipelines.images.ImagesPipeline': 1, 'practice.pipelines.LoLPipeline': 1 } # 设置采集文件夹路径 IMAGES_STORE = 'E:PythonscrapypracticepracticeLOLskin' # Enable and configure the AutoThrottle extension (disabled by default) # See https://docs.scrapy.org/en/latest/topics/autothrottle.html # AUTOTHROTTLE_ENABLED = True # The initial download delay # AUTOTHROTTLE_START_DELAY = 5 # The maximum download delay to be set in case of high latencies # AUTOTHROTTLE_MAX_DELAY = 60 # The average number of requests Scrapy should be sending in parallel to # each remote server # AUTOTHROTTLE_TARGET_CONCURRENCY = 1.0 # Enable showing throttling stats for every response received: # AUTOTHROTTLE_DEBUG = False # Enable and configure HTTP caching (disabled by default) # See https://docs.scrapy.org/en/latest/topics/downloader-middleware.html#httpcache-middleware-settings # HTTPCACHE_ENABLED = True # HTTPCACHE_EXPIRATION_SECS = 0 # HTTPCACHE_DIR = 'httpcache' # HTTPCACHE_IGNORE_HTTP_CODES = [] # HTTPCACHE_STORAGE = 'scrapy.extensions.httpcache.FilesystemCacheStorage'main.pyfrom scrapy.cmdline import execute execute(['scrapy', 'crawl', 'lolskin'])
2020年03月06日
636 阅读
0 评论
0 点赞
2020-03-05
Ascall对照表
请使用 Ctrl+F 查找所需信息。十进制十六进制控制字符用途说明00NUL空字符11SOH标题起始 (Ctrl/A)22STX文本起始 (Ctrl/B)33ETX文本结束 (Ctrl/C)44EOT传输结束 (Ctrl/D)55ENQ询问 (Ctrl/E)66ACK认可 (Ctrl/F)77BEL铃 (Ctrl/G)88BS退格 (Ctrl/H)99HT水平制表栏 (Ctrl/I)100ALF换行 (Ctrl/J)110BVT垂直制表栏 (Ctrl/K)120CFF换页 (Ctrl/L)130DCR回车 (Ctrl/M)140ESO移出 (Ctrl/N)150FSI移入 (Ctrl/O)1610DLE数据链接丢失 (Ctrl/P)1711DC1设备控制 1 (Ctrl/Q)1812DC2设备控制 2 (Ctrl/R)1913DC3设备控制 3 (Ctrl/S)2014DC4设备控制 4 (Ctrl/T)2115NAK否定接受 (Ctrl/U)2216SYN同步闲置符 (Ctrl/V)2317ETB传输块结束 (Ctrl/W)2418CAN取消 (Ctrl/X)2519EM媒体结束 (Ctrl/Y)261ASUB替换 (Ctrl/Z)271BESC换码符281CFS文件分隔符291DGS组分隔符301ERS记录分隔符311FUS单位分隔符3220SP空格3321!感叹号3422"引号 (双引号)3523#数字符号3624$美元符3725%百分号3826&和号3927'省略号 (单引号)4028(左圆括号4129)右圆括号422A*星号432B+加号442C,逗号452D--连字号或减号462E.句点或小数点472F/斜杠48300零493111503222513333523444533555543666553777563888573999583A:冒号593B;分号603C<小于613D=等于623E>大于633F?问号6440@商业 at 符号6541A大写字母 A6642B大写字母 B6743C大写字母 C6844D大写字母 D6945E大写字母 E7046F大写字母 F7147G大写字母 G7248H大写字母 H7349I大写字母 I744AJ大写字母 J754BK大写字母 K764CL大写字母 L774DM大写字母 M784EN大写字母 N794FO大写字母 O8050P大写字母 P8151Q大写字母 Q8252R大写字母 R8353S大写字母 S8454T大写字母 T8555U大写字母 U8656V大写字母 V8757W大写字母 W8858X大写字母 X8959Y大写字母 Y905AZ大写字母 Z915B[左中括号925C反斜杠935D]右中括号945E^音调符号955F_下划线9660`重音符9761a小写字母 a9862b小写字母 b9963c小写字母 c10064d小写字母 d10165e小写字母 e10266f小写字母 f10367g小写字母 g10468h小写字母 h10569i小写字母 i1066Aj小写字母 j1076Bk小写字母 k1086Cl小写字母 l1096Dm小写字母 m1106En小写字母 n1116Fo小写字母 o11270p小写字母 p11371q小写字母 q11472r小写字母 r11573s小写字母 s11674t小写字母 t11775u小写字母 u11876v小写字母 v11977w小写字母 w12078x小写字母 x12179y小写字母 y1227Az小写字母 z1237B{左大括号1247C|垂直线1257D}右大括号 (ALTMODE)1267E~代字号 (ALTMODE)1277FDEL擦掉 (DELETE)十进制十六进制控制字符用途说明12880[保留]12981[保留]13082[保留]13183[保留]13284IND索引13385NEL下一行13486SSA被选区域起始13587ESA被选区域结束13688HTS水平制表符集13789HTJ对齐的水平制表符集1388AVTS垂直制表符集1398BPLD部分行向下1408CPLU部分行向上1418DRI反向索引1428ESS2单移 21438FSS3单移 314490DCS设备控制字符串14591PU1专用 114692PU2专用 214793STS设置传输状态14894CCH取消字符14995MW消息等待15096SPA保护区起始15197EPA保护区结束15298[保留]15399[保留]1549A[保留]1559BCSI控制序列引导符1569CST字符串终止符1579DOSC操作系统命令1589EPM秘密消息1599FAPC应用程序160A0[保留] 2161A1¡反向感叹号162A2¢分币符163A3£英磅符164A4[保留] 2165A5¥人民币符166A6[保留] 2167A7§章节符168A8¤通用货币符号 2169A9©版权符号170AAª阴性顺序指示符171AB«左角引号172AC[保留] 2173AD[保留] 2174AE[保留] 2175AF[保留] 2176B0°温度符177B1±加/减号178B2²上标 2179B3³上标 3180B4[保留] 2181B5µ微符182B6¶段落符,pilcrow183B7·中点184B8[保留] 2185B9¹上标 1186BAº阳性顺序指示符187BB»右角引号188BC¼分数四分之一189BD½分数二分之一190BE[保留] 2191BF¿反向问号192C0À带重音符的大写字母 A193C1Á带尖锐重音的大写字母 A194C2Â带音调符号的大写字母 A195C3Ã带代字号的大写字母 A196C4Ä带元音变音 (分音符号) 的大写字母 A197C5Å带铃声的大写字母 A198C6Æ大写字母 AE 双重元音199C7Ç带变音符号的大写字母 C200C8È带重音符的大写字母 E201C9É带尖锐重音的大写字母 E202CAÊ带音调符号的大写字母 E203CBË带元音变音 (分音符号) 的大写字母 E204CCÌ带重音符的大写字母 I205CDÍ带尖锐重音的大写字母 I206CEÎ带音调符号的大写字母 I207CFÏ带元音变音 (分音符号) 的大写字母 I208D0[保留] 2209D1Ñ带代字号的大写字母 N210D2Ò带重音符的大写字母 O211D3Ó带尖锐重音的大写字母 O212D4Ô带音调符号的大写字母 O213D5Õ带代字号的大写字母 O214D6Ö带元音变音 (分音符号) 的大写字母 O215D7OE大写字母 OE 连字 2216D8Ø带斜杠的大写字母 O217D9Ù带重音符的大写字母 U218DAÚ带尖锐重音的大写字母 U219DBÛ带音调符号的大写字母 U220DCÜ带元音变音 (分音符号) 的大写字母 U221DDY带元音变音 (分音符号) 的大写字母 Y222DE[保留] 2223DFß德语高调小写字母 s224E0à带重音符的小写字母 a225E1á带尖锐重音的小写字母 a226E2â带音调符号的小写字母 a227E3ã带代字号的小写字母 a228E4ä带元音变音 (分音符号) 的小写字母 a229E5å带铃声的小写字母 a230E6æ小写字母 ae 双重元音231E7ç带变音符号的小写字母 c232E8è带重音符的小写字母 e233E9é带尖锐重音的小写字母 e234EAê带音调符号的小写字母 e235EBë带元音变音 (分音符号) 的小写字母 e236ECì带重音符的小写字母 i237EDí带尖锐重音的小写字母 i238EEî带音调符号的小写字母 i239EFï带元音变音 (分音符号) 的小写字母 i240F0[保留] 2241F1ñ带代字号的小写字母 n242F2ò带重音符的小写字母 o243F3ó带尖锐重音的小写字母 o244F4ô带音调符号的小写字母 o245F5õ带代字号的小写字母 o246F6ö带元音变音 (分音符号) 的小写字母 o247F7oe小写字母 oe 连字 2248F8ø带斜杠的小写字母 o249F9ù带重音符的小写字母 u250FAú带尖锐重音的小写字母 u251FBû带音调符号的小写字母 u252FCü带元音变音 (分音符号) 的小写字母 u253FDÿ带元音变音 (分音符号) 的小写字母 y 2254FE[保留] 2255FF[保留] 2
2020年03月05日
911 阅读
0 评论
0 点赞
2020-03-04
班迪录屏
{cloud title="Bandicam 5.4.2.1921 x64 M..." type="lz" url="https://vast.lanzouu.com/iRPYx035ozjc" password=""/}
2020年03月04日
440 阅读
2 评论
0 点赞
1
...
86
87
88
...
90