asic矿机用fpga改算法
『壹』 比特币矿机的工作原理,是否是通过电脑发送难度给FPGA、ASIC,然后由矿机算出难度,传到电脑
挖矿的目的就是为交易块打包。打包成功了,你就开出一个新的包包,获得25比特币的奖励,以及未来加进这个包的交易的手续费。
然后其他的矿工就开始为你这个新包产生的交易打包直到下一个包的出先。
以后的比特币挖矿产能小,甚至变零了,你是还有交易费收的。 系统永远需要”矿工“,矿机还是会存在的。
『贰』 如何用fpga实现算法的硬件加速
首先,利用传统的软件技巧来优化算法,然后将其转向定制指令以加速算法。我们将讨论不同实现方法的性能比较和折衷。
CRC算法可用来校验数据在传输过程中是否被破坏。这些算法很流行,因为它们具有很高的检错率,而且不会对数据吞吐量造成太大影响,因为CRC校验位被添加进数据信息中。但是,CRC算法比一些简单的校验和算法有更大的计算量要求。尽管如此,检错率的提高使得这种算法值得去实施。
一般说来,发送端对要被发送的消息执行CRC算法,并将CRC结果添加进该消息中。消息的接收端对包括CRC结果在内的消息执行同样的CRC操作。如果接收端的结果与发送端的不同,这说明数据被破坏了。
CRC算法是一种密集的数学运算,涉及到二元模数除法(molo-2 division),即数据消息被16或32位多项式(取决于所用CRC标准)除所得的余数。这种操作一般通过异或和移位的迭代过程来实现,当采用16位多项式时,这相当于每数据字节要执行数百条指令。如果发送数百个字节,计算量就会高达数万条指令。因此,任何优化都会大幅提高吞吐量。
代码列表1中的CRC函数有两个自变量(消息指针和消息中的字节数),它可返回所计算的CRC值(余数)。尽管该函数的自变量是一些字节,但计算要逐位来执行。该算法并不高效,因为所有操作(与、移位、异或和循环控制)都必须逐位地执行。
列表1:逐位执行的CRC算法C代码。
/*
* The width of the CRC calculation and result.
* Modify the typedef for a 16 or 32-bit CRC standard.
*/
typedef unsigned char crc;
#define WIDTH (8 * sizeof(crc))
#define TOPBIT (1 << (WIDTH - 1))
crc crcSlow(unsigned char const message[], int nBytes)
{
crc remainder = 0;
/*
* Perform molo-2 division, a byte at a time.
*/
for (int byte = 0; byte < nBytes; ++byte)
{
/*
* Bring the next byte into the remainder.
*/
remainder ^= (message[byte] << (WIDTH - 8));
/*
* Perform molo-2 division, a bit at a time.
*/
for (unsigned char bit = 8; bit > 0; "bit)
{
/*
* Try to divide the current data bit.
*/
if (remainder & TOPBIT)
{
remainder = (remainder << 1) ^ POLYNOMIAL;
}
else
{
remainder = (remainder << 1);
}
}
}
/*
* The final remainder is the CRC result.
*/
return (remainder);
}
1.传统的软件优化
图3:带CRC外围电路和DMA的系统模块示意图。
让我们看一下如何利用传统的软件技巧来优化CRC算法。因为CRC操作中的一个操作数,即多项式(除数)是常数,字节宽CRC操作的所有可能结果都可以预先计算并存储在一个查找表中。这样,通过一个读查找表动作就可让操作按逐个字节执行下去。
采用这一算法时,需要将这些预先计算好的值存储在存储器中。选择ROM或RAM都可以,只要在启动CRC计算之前将存储器初始化就行。查找表有256个字节,表中每个字节位置包含一个CRC结果,共有256种可能的8位消息(与多项式大小无关)。
列表2示出了采用查找表方法的C代码,包括生成查找表crcInit()中数值的代码。
列表2:采用查找表方法的CRC算法C代码。
crc crcTable[256];
void crcInit(void)
{
crc remainder;
/*
* Compute the remainder of each possible dividend.
*/
for (int dividend = 0; dividend < 256; ++dividend)
{
/*
* Start with the dividend followed by zeros.
*/
remainder = dividend << (WIDTH - 8);
/*
* Perform molo-2 division, a bit at a time.
*/
for (unsigned char bit = 8; bit > 0; "bit)
{
/*
* Try to divide the current data bit.
*/
if (remainder & TOPBIT)
{
remainder = (remainder << 1) ^ POLYNOMIAL;
}
else
{
remainder = (remainder << 1);
}
}
/*
* Store the result into the table.
*/
crcTable[dividend] = remainder;
}
} /* crcInit() */
crc crcFast(unsigned char const message[], int nBytes)
{
unsigned char data;
crc remainder = 0;
/*
* Divide the message by the polynomial, a byte at a time.
*/
for (int byte = 0; byte < nBytes; ++byte)
{
data = message[byte] ^ (remainder >> (WIDTH - 8));
remainder = crcTable[data] ^ (remainder << 8);
}
/*
* The final remainder is the CRC.
*/
return (remainder);
} /* crcFast() */
整个计算减少为一个循环,每字节(不是每位)有两个异或、两个移位操作和两个装载指令。基本上,这里是用查找表的存储空间来换取速度。该方法比逐位计算的方法要快9.9倍,这一提高对某些应用已经足够。如果需要更高的性能,可以尝试编写汇编代码或增加查找表容量以挤出更多性能来。但是,如果需要20、50甚至500倍的性能提高,就要考虑采用硬件加速来实现该算法了。
表1:各种规模的数据模块下CRC算法测试比较结果。
2.采用定制指令方法
CRC算法由连续的异或和移位操作构成,用很少的逻辑即可在硬件中简单实现。由于这一硬件模块仅需几个周期来计算CRC,采用定制指令来实现CRC计算要比采用外围电路更好。此外,无须涉及系统中任何其它外围电路或存储器。仅需要一个微处理器来支持定制指令即可,一般是指可配置微处理器。
当在硬件中实现时,算法应该每次执行16或32位计算,这取决于所采用的CRC标准。如果采用CRC-CCITT标准(16位多项式),最好每次执行16位计算。如果使用8位微处理器,效率可能不太高,因为装载操作数值及返回CRC值需要额外的周期。图2示出了用硬件实现16位CRC算法的内核。
信号msg(15..0)每次被移入异或/移位硬件一位。列表3示出了在64KB数据模块上计算CRC的一些C代码例子。该实例是针对Nios嵌入式处理器。
列表3:采用定制指令的CRC计算C代码。
unsigned short crcCompute(unsigned short *data_block, unsigned int nWords)
{
unsigned short* pointer;
unsigned short word;
/*
* initialize crc reg to 0xFFFF
*/
word = nm_crc (0xFFFF, 1); /* nm_crc() is the CRC custom instruction */
/*
* calculate CRC on block of data
* nm_crc() is the CRC custom instruction
*
*/
for (pointer = data_block; pointer < (data_block + nWords); pointer ++)
word = nm_crc(*pointer, 0) return (word);
}
int main(void)
{
#define data_block_begin (na_onchip_memory)
#define data_block_end (na_onchip_memory + 0xffff)
unsigned short crc_result;
unsigned int data_block_length = (unsigned short *)data_block_end - (unsigned short
*)data_block_begin + 1;
crc_result = crcCompute((unsigned short *)data_block_begin, data_block_length);
}
采用定制指令时,用于计算CRC值的代码是一个函数调用,或宏。当针对Nios处理器实现定制指令时,系统构建工具会生成一个宏。在本例中为nm_crc(),可用它来调用定制指令。
在启动CRC计算之前,定制指令内的CRC寄存器需要先初始化。装载初始值是CRC标准的一部分,而且每种CRC标准都不一样。接着,循环将为数据模块中的每16位数据调用一次CRC定制指令。这种定制指令实现方式要比逐位实现的方法快27倍。
3.CRC外围电路方法
如果将CRC算法作为硬件外围电路来实现,并利用DMA将数据从存储器转移到外围电路,这样还可以进一步提高速度。这种方法将省去处理器为每次计算而装载数据所需要的额外周期。DMA可在此外围电路完成前一次CRC计算的时钟周期内提供新的数据。图3示出了利用DMA、CRC外围电路来实现加速的系统模块示意图。
在64KB数据模块上,利用带DMA的定制外围电路可获得比逐位计算的纯软件算法快500倍的性能。要知道,随着数据模块规模的增加,使用DMA所获得的性能也随之提高。这是因为设置DMA仅需很少的开销,设置之后DMA运行得特别快,因为每个周期它都可以传递数据。因此,若只有少数字节的数据,用DMA并不划算。
这里所讨论的所有采用CRC-CCITT标准(16位多项式)的算法都是在Altera Stratix FPGA的Nios处理器上实现的。表1示出了各种数据长度的测试比较结果,以及大致的硬件使用情况(FPGA中的存储器或逻辑单元)。
可以看出,算法所用的硬件越多,算法速度越快。这是用硬件资源来换取速度。
『叁』 130万门的ASIC芯片需要多大的FPGA做原型验证合适
你这个“门”是拿什么衡量的?system gates和ASIC gates的计算方法不一样的。我记得两者之间大概差10倍多。。。。。。。。。如果是system gates,那你就也找一个200万门的FPGA来做验证就好了,如果你说的是ASIC gates,那就好大了。。。。
『肆』 用FPGA实现算法是什么意思
算法有软件的算法,有硬件的算法。
软件的算法一般都是用软件比如C语言,JAVA等来写。这个很好理解,就叫软件算法的实现。
FPGA是可编程逻辑器件。FPGA主要用来实现逻辑电路(数字电路),所以说用FPGA实现某算法就是要用FPGA设计一个数字电路,该电路可以实现这个算法的运算。
比如说加法器。用软件C语言来写的话,就可以写为 c=a+b.
但是用FPGA来做的话,应该是考虑用全加器的级联,或者什么方法来实现。
一般来讲,FPGA有自己的编程语言,常用的是Verilog或者VHDL。
上述加法器也可以写为 C=A+B. 虽然和C一样,但是实现之后,在FPGA内部被映射成了很多基本门电路,与或非门,寄存器,锁存器等。而C语言写的东西则被编译成了计算机能够处理的机器码,汇编码。
一个变成指令,一个变成电路。
FPGA实现算法和单纯的画电路图又有区别。怎样又快又省资源,省电力的完成FPGA电路的设计,是FPGA实现算法关注的领域。就和软件要关注执行实现和内存占用量一样。
总之,最简单的理解,FPGA的算法就是逻辑电路,是硬件。
『伍』 fpga和asic开发流程的区别
1、FPGA——现场可编程门阵列
FPGA(Field-ProgrammableGateArray),即现场可编程门阵列,它是在PAL、GAL、CPLD等可编程器件的基础上进一步发展的产物。它是作为专用集成电路(ASIC)领域中的一种半定制电路而出现的,既解决了定制电路的不足,又克服了原有可编程器件门电路数有限的缺点。
ASIC具有高性能、低功耗的优势,但它们包含的任何算法——除了那些在软件内部处理器内核执行的——其余都是“冻结的”。所以这个时候我们就需要现场可编程门阵列(FPGA)了。早期的FPGA器件的架构相对简单——只是一系列通过可编程互连的可编程模块。
『陆』 用FPGA来做pid算法控制好吗
误差输出16位,输入10位,这里多少位多少位都是输入输出的量化精度,就是说你这个PID控制模块输入的传感器采样数据是位宽为10位的数据,控制输出为位宽为16位的数据。
『柒』 FPGA如何实现算法
我个人认为 FPGA的算法实现与C的算法有一定关联 但有区别 有些黄金算法在硬件语言描述时很费力,不一定好用 也只有理论联系实践,从实践中来到实践中去,
『捌』 学习FPGA算法和IC设计要多长时间该怎么去学
学习这种东西,最好是在公司或者研究所里的项目。首先明确一点,就是IC分宏观的设计和微观的设计,比如说做一个宏观的项目,设计一个简单的秒表,那么你可以用FPGA来实现,这东西属于IC的范畴,但不是说你会这么点微末的东西就说你是搞IC的了。IC设计千万别说是搞IC得,因为它真的是太难了,如果想学,我推荐你去智芯融上他们的FPGA&IC设计培训,跟着老师系统学习,快速掌握技术要领。
『玖』 如何用数字IC/FPGA实现算法
主要内容包括:
1. 为什么很多人觉得学习FPGA很困难,以及HDL学习的一些误区;
2. 软件和硬件在算法实现上的区别;
3. 通过具体例子详细讲解了从算法的行为级建模向RTL级建模的转换思想和底层电路的实现;
4. 学习资料推荐。都是做数字前端的一些经典书籍,对比较盲目的同学或不知道选什么资料的同学会有很大帮助
『拾』 假设现在有一些处理是在软件中实现的。当用FPGA或ASIC等硬件重新实现时,应该考虑什么。
1、DSP(digital signal processor)看它的名字就知道是专业做数字信号处理的。DSP是一种独特的微处理器(采用哈佛结构,内部结构已经固定),有自己的完整指令系统,通过指令和数据工作(这个也是CPU和ARM等的工作方式),开发遵循嵌入式软件的设计原则,更注重于算法的实现。
2、FPGA,是ASIC的一种,属于硬件设计的范畴 。区别在于ASIC是硬件全定制 ,FPGA是硬件半定制 。
ASIC(Application Specific Integrated Circuits)是专用集成电路,指应特定用户要求和特定电子系统的需要而设计、制造的集成电路,里面的电路结构式固定不可变的。
而FPGA内部是集成的可以由用户来配置的基础数字逻辑模块(如寄存器、连接线、输入输出模块等),用户可以通过编程等方式,将这些基础数字逻辑模块组合成一个电路,从而达到目标功能。相当于是给你一堆原始逻辑与非门,你自己去拼积木吧。所以FPGA更灵活。
3、SoC是片上系统,指在一个芯片中实现用户定义的系统。
SoC与FPGA之间:由于FPGA内部也可实现软核(CPU),所以这时FPGA也算是SoC了。
SoC与ASIC之间:严格意义上来讲,SoC也可以是ASIC,当某一SoC结构稳定后,可作为ASIC来批量生产。一般来讲,SoC带有CPU和一些外设。ASIC一般是指IP核的设计,也就是某一功能模块,如USB,DDR控制器等。